Freigeben über


Azure OpenAI in Microsoft Foundry Models v1 REST-API-Dokumentation

Derzeit werden nur eine Teilmenge von Vorgängen mit der v1-API unterstützt. Weitere Informationen finden Sie in der Anleitung zum API-Versionslebenszyklus.

Chatvervollständigung erstellen

POST {endpoint}/openai/v1/chat/completions

Erstellt eine Chatvervollständigung.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite Version der Microsoft Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
audio Objekt Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit
modalities: ["audio"].
Nein
└─ format enum Gibt das Audioformat der Ausgabe an. Muss eins der folgende Formate aufweisen: wav, mp3, flac,
opus oder pcm16.
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
Nein
└– Stimme Objekt Nein
data_sources array Die Datenquellen, die für das Feature „On Your Data“ verwendet werden sollen, exklusiv für Azure OpenAI. Nein
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf
ihrer bisherigen Häufigkeit im Text, wodurch die Modellzahlen verringert werden
Wahrscheinlichkeit, dieselbe Zeile wörtlich zu wiederholen.
Nein 0
function_call enum Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
Mögliche Werte: none, auto
Nein
Funktionen array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im
Tokenizer) einem verwandten Bias-Wert von -100 bis 100 zuordnet. Mathematisch
der Trend wird vor der Stichprobenentnahme zu den logits hinzugefügt, die vom Modell generiert wurden.
Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten
die Wahrscheinlichkeit der Auswahl erhöhen oder verringern; Werte wie -100 oder 100
sollte dies zu einem Verbot oder einer exklusiven Auswahl des betreffenden Tokens führen.
Nein Nichts
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn WAHR
gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das zurückgegeben wird in der
content von message.
Nein Falsch
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen
Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.
Nein
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.
Dieser Wert kann zur Kostenkontrolle für über die API generierten Text verwendet werden.

Dieser Wert ist jetzt veraltet zugunsten von max_completion_tokens, und ist
nicht mit Modellen der o1-Serie kompatibel.
Nein
messages array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig von
Modell, das Sie verwenden, werden verschiedene Nachrichtentypen (Modalitäten) unterstützt,
wie Text, Bilder und Audio.
Ja
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
modalities Objekt Ausgabetypen, die das Modell generieren soll.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell
sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]
Nein
Modell Schnur Der Modellimplementierungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. Ja
n integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein 1
Parallele Werkzeugaufrufe Objekt Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
Vorhersage Objekt Basisdarstellung der vorhergesagten Ausgabe eines Modells. Nein
└– Typ OpenAI.ChatOutputPredictionType Nein
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf
ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit des Modells erhöht wird,
über neue Themen zu sprechen.
Nein 0
Denkanstrengung Objekt nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
Antwortformat Objekt Nein
└– Typ enum
Mögliche Werte: text, , json_objectjson_schema
Nein
Seed integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
Nein
stop Objekt Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Das
Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Nein
store boolean Ob die Ausgabe dieser Chat-Anfrage dieser Chatabschlussanforderung für
die Verwendung in Modelldestillation oder Bewertungsprodukten gespeichert werden soll oder nicht.
Nein Falsch
Datenstrom boolean Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt,
da sie mithilfe von server-sent-Ereignissen generiert werden.
Nein Falsch
stream_options Objekt Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. Nein
└– include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor dem data: [DONE]-
Meldung. Das Feld usage in diesem Abschnitt zeigt die Tokenverbrauchsstatistiken
für die gesamte Anforderung an, und das Feld choices ist immer ein leeres
Array.

Alle anderen Blöcke werden auch ein Feld usage enthalten, aber mit einem NULL-
Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den
letzten Verbrauchsblock, der den gesamten Tokenverbrauch für die Anforderung enthält.
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Toolauswahl OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Nein
Werkzeuge array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. Nein
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der ihnen helfen kann,
Missbrauch zu überwachen und erkennen.
Nein
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, welche die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Beispiel

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.

POST {endpoint}/openai/v1/chat/completions

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Erstellen der Einbettung

POST {endpoint}/openai/v1/embeddings

Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. Nein
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.
Mögliche Werte: float, base64
Nein
Eingabe Zeichenfolge oder Array Ja
Modell Schnur Das Modell, das für die Einbettungsanforderung verwendet werden soll. Ja
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.CreateEmbeddingResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Beispiel

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

POST {endpoint}/openai/v1/embeddings

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Bewertungen auflisten

GET {endpoint}/openai/v1/evals

Listet Auswertungen für ein Projekt auf.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
after Anfrage Nein Schnur Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl der Bewertungen, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge von Bewertungen nach Zeitstempel. Verwenden Sie asc für aufsteigende Reihenfolge oder
desc für absteigende Reihenfolge.
order_by Anfrage Nein Schnur
Mögliche Werte: created_at, updated_at
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Verwendung
created_at für die Erstellungszeit oder updated_at für die letzte Aktualisierung
kann.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewertung erstellen

POST {endpoint}/openai/v1/evals

Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.

Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Datenquellenkonfiguration Objekt Ja
└– Typ OpenAI.EvalDataSourceConfigType Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Der Name der Auswertung. Nein
statusCode enum
Möglicher Wert: 201
Ja
Testkriterien array Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewertung abrufen

GET {endpoint}/openai/v1/evals/{eval_id}

Rufen Sie eine Bewertung anhand ihrer ID ab. Ruft eine Bewertung anhand ihrer ID ab.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewertung aktualisieren

POST {endpoint}/openai/v1/evals/{eval_id}

Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Bewertung.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten OpenAI.MetadataPropertyForRequest 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Löschen einer Bewertung

DELETE {endpoint}/openai/v1/evals/{eval_id}

Löschen sie eine angegebene Bewertung.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen von Bewertungsausführungen

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Dient zum Abrufen einer Liste von Läufen für eine angegebene Bewertung.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
after Anfrage Nein Schnur
limit Anfrage Nein integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
status Anfrage Nein Schnur
Mögliche Werte: queued, , in_progresscompleted, , canceledfailed

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen einer Bewertungsausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Erstellen Sie eine neue Bewertungsausführung, die den Bewertungsprozess beginnt.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Datenquelle Objekt Ja
└– Typ OpenAI.EvalRunDataSourceType Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Name der Ausführung Nein

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen einer Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Rufen Sie eine bestimmten Bewertung ab, die nach ihrer ID ausgeführt wird.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abbrechen einer Bewertungsausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Brechen Sie eine bestimmte Bewertung ab, die nach ihrer ID ausgeführt wird.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewertungsausführung löschen

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Löschen Sie eine bestimmte Auswertung, die nach ihrer ID ausgeführt wird.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen von Ausgabeelementen der Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Rufen Sie eine Liste der Ausgabeelemente für eine angegebene Bewertungsausführung ab.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur
after Anfrage Nein Schnur
limit Anfrage Nein integer
status Anfrage Nein Schnur
Mögliche Werte: fail, pass
order Anfrage Nein Schnur
Mögliche Werte: asc, desc

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunOutputItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen des Ausgabeelements der Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Rufen Sie ein bestimmtes Ausgabeelement aus einer Bewertung ab, die nach ihrer ID ausgeführt wird.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur
output_item_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunOutputItem

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei erstellen

POST {endpoint}/openai/v1/files

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ BESCHREIBUNG Erforderlich Standard
expires_after Objekt Ja
└– Anker AzureFileExpiryAnchor Nein
└─ Sekunden integer Nein
file Schnur Ja
purpose enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwenden
Mögliche Werte: assistants, , batch, fine-tuneevals
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIFile

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Beispiel

POST {endpoint}/openai/v1/files

Auflisten von Dateien

GET {endpoint}/openai/v1/files

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
purpose Anfrage Nein Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureListFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei abrufen

GET {endpoint}/openai/v1/files/{file_id}

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureOpenAIFile

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Datei löschen

DELETE {endpoint}/openai/v1/files/{file_id}

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteFileResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Herunterladen der Datei

GET {endpoint}/openai/v1/files/{file_id}/content

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
application/octet-stream Schnur

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Bewerter ausführen

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Führen Sie einen Bewerter aus.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└─ calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└─ graders Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
item Das Datasetelement, das dem Bewerter bereitgestellt wird. Dies wird zum Auffüllen
des Namespace item verwendet. Weitere Details finden Sie im Leitfaden.
Nein
model_sample Schnur Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen
des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.
Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel eine
gültige JSON-Zeichenfolge ist.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Überprüfen des Bewerters

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Überprüfen Sie einen Bewerter.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└─ calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└─ graders Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ValidateGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen eines Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs

Erstellt einen Feinabstimmungsauftrag, der den Prozess der Erstellung eines neuen Modells aus einem bestimmten Datensatz startet.

Die Antwort enthält Details des in die Warteschlange gestellten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.

Weitere Informationen zur Feinabstimmung

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden.
Nein
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
Integrationen array Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Methode OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden
unterstützten Modelle verwenden.
Ja
Seed integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Schnur Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.

Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein Nichts
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Trainingsdaten enthält.

Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei.

Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.

Je nachdem, ob das Modell den Chat verwendet, oder ob die Feinabstimmungsmethode das Format Vorlieben verwendet, sollte sich der Inhalt der Datei unterscheiden.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Ja
Validierungsdatei Schnur Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs-
Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der
Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von paginierten Feinabstimmungsaufträgen

GET {endpoint}/openai/v1/fine_tuning/jobs

Auflisten der Feinabstimmungsaufträge Ihrer Organisation

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
after Anfrage Nein Schnur Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsaufforderung.
limit Anfrage Nein integer Anzahl der abzurufenden Feinabstimmungsaufträge.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListPaginatedFineTuningJobsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen eines Feinabstimmungsauftrags

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Rufen Sie Informationen zu einem Feinabstimmungsauftrag ab.

Weitere Informationen zur Feinabstimmung

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abbrechen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Brechen Sie einen Feinabstimmungsauftrag sofort ab.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des abzubrechenden Feinabstimmungsauftrags.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Prüfpunkten des Feinabstimmungsauftrags

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Listen Sie die Prüfpunkte für einen Feinabstimmungsauftrag auf.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein integer Anzahl der abzurufenden Prüfpunkte.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobCheckpointsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Feinabstimmung – Prüfpunkt kopieren

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy

Erstellt eine Kopie eines Feinabstimmungsprüfpunkts für das angegebene Zielkonto und die angegebene Region.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-copy-ft-checkpoints Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein.
accept (Akzeptieren) Header Ja Schnur
Möglicher Wert: application/json
fine_tuning_job_id Pfad Ja Schnur
fine_tuning_checkpoint_name Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
destinationResourceId Schnur Die ID der zu kopierenden Zielressource. Ja
region Schnur Die Region, in die das Modell kopiert werden soll. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json CopyModelResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Feinabstimmung – Prüfpunkt abrufen

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy

Ruft den Status der Kopie eines Feinabstimmungsprüfpunkts ab.

Hinweis

Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-copy-ft-checkpoints Header Ja Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein.
accept (Akzeptieren) Header Ja Schnur
Möglicher Wert: application/json
fine_tuning_job_id Pfad Ja Schnur
fine_tuning_checkpoint_name Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json CopyModelResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Ereignisse der Feinabstimmung

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Rufen Sie Statusupdates für einen Feinabstimmungsauftrag ab.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für das letzte Ereignis aus der vorherigen Anforderung zur Paginierung.
limit Anfrage Nein integer Anzahl der abzurufenden Ereignisse.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobEventsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Feinabstimmungsauftrag anhalten

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Halten Sie einen Feinabstimmungsauftrag an.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des anzuhaltenden Feinabstimmungsauftrags.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Fortsetzen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Setzen Sie einen angehaltenen Feinabstimmungsauftrag fort.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Modellen

GET {endpoint}/openai/v1/models

Listet die derzeit verfügbaren Modelle auf und stellt grundlegende Informationen zu jedem Modell bereit, z. B. Besitzer und Verfügbarkeit.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListModelsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Modell abrufen

GET {endpoint}/openai/v1/models/{model}

Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und Berechtigungen.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Modell Pfad Ja Schnur Die ID des Modells, das für diese Anforderung verwendet werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Model

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Antwort erstellen

POST {endpoint}/openai/v1/responses

Erstellt eine Modellantwort.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
include array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit
unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung
in den Aufrufelementen des Code-Interpreter-Tools.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs.
- file_search_call.results: Fügen Sie die Suchergebnisse ein
des Aufrufs des Dateisuchtools.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-
Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in
mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B.
wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt ist
für das Null-Datenaufbewahrungsprogramm registriert).
Nein
Eingabe Zeichenfolge oder Array Nein
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Modell Schnur Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. Ja
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└─ id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
└─ version Schnur Optionale Version der Promptvorlage. Nein
Begründung Objekt nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet. , verwenden Sie stattdessen summary.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
store boolean Gibt an, ob die generierte Modellantwort gespeichert werden soll zur späteren Abfrage über
.
Nein Richtig
Datenstrom boolean Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt,
da sie mithilfe von server-sent-Ereignissen generiert werden.
Siehe den Abschnitt „Streaming“ weiter unten
finden Sie weitere Informationen.
Nein Falsch
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
Toolauswahl Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines oder
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Funktionen des Modells erweitern, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
die dem Modell das Aufrufen Ihres eigenen Codes ermöglichen.
Nein
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
Kürzung enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Beispiel

Erstellen einer Modellantwort

POST {endpoint}/openai/v1/responses

Antwort abrufen

GET {endpoint}/openai/v1/responses/{response_id}

Ruft eine Modellantwort mit der angegebenen ID ab.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur
include_obfuscation Anfrage Nein boolean Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt einem Feld obfuscation bei Streaming-Delta-Ereignissen zufällige Zeichen hinzu, um Nutzlastgrößen als Risikominderung für bestimmte Seitenkanalangriffe zu normalisieren. Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch dem Datenstrom einen geringen Mehraufwand hinzu. Sie können include_obfuscation auf FALSCH festlegen, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen Ihrer Anwendung und der OpenAI-API vertrauen.
include[] Anfrage Nein array

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Antwort löschen

DELETE {endpoint}/openai/v1/responses/{response_id}

Löscht eine Antwort nach ID.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Listeneingabeelemente

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ResponseItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten der Vektorspeicher

GET {endpoint}/openai/v1/vector_stores

Gibt eine Liste mit Vektorspeichern zurück.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoresResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Createvectorstore

POST {endpoint}/openai/v1/vector_stores

Erstellt einen Vektorspeicher.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
chunking_strategy Objekt Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400. Nein
└– statisch OpenAI.StaticChunkingStrategy Nein
└– Typ enum Immer static.
Möglicher Wert: static
Nein
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
Datei-IDs array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Der Name des Vektorspeichers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Beispiele

Beispieldatei nicht gefunden: ./examples/vector_stores.json

Abrufen des Vektorspeichers

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Ruft einen Vektorspeicher ab.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des abzurufenden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Ändern des Vektorspeichers

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Ändert einen Vektorspeicher.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu ändernden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
expires_after Objekt Die Ablaufrichtlinie für einen Vektorspeicher. Nein
└– Anker enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Nein
└– Tage integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Der Name des Vektorspeichers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Löschen des Vektorspeichers

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Löschen Sie einen Vektorspeicher.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu löschenden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteVectorStoreResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen eines Vektorspeicher-Dateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Erstellen Sie einen Vektorspeicher-Dateibatch.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-IDs array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen des Vektorspeicher-Dateibatches

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Ruft einen Vektorspeicher-Dateibatch ab.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des abgerufenen Dateibatches

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abbrechen des Vektorspeicher-Dateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des zu abbrechenden Dateibatches.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten von Dateien im Vektorspeicher-Batch

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des Dateibatches, zu dem die Dateien gehören.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter Anfrage Nein Filtern nach Dateistatus. Einer der folgenden Werte: in_progress, completed, failed, cancelled.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoreFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Auflisten der Vektorspeicherdateien

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Gibt eine Liste mit Vektorspeicherdateien zurück.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr
nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter Anfrage Nein Filtern nach Dateistatus. Einer der folgenden Werte: in_progress, completed, failed, cancelled.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoreFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Erstellen einer Vektorspeicherdatei

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-ID Schnur Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Abrufen einer Vektorspeicherdatei

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Ruft eine Vektorspeicherdatei ab.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Datei gehört.
Datei-ID Pfad Ja Schnur Die ID der abgerufenen Datei.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Aktualisieren von Vektorspeicher-Dateiattributen

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur
Datei-ID Pfad Ja Schnur

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Löschen einer Vektorspeicherdatei

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.

Parameter

Name Geben Sie in Erforderlich Typ BESCHREIBUNG
Endpunkt Pfad Ja Schnur
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Datei gehört.
Datei-ID Pfad Ja Schnur Die ID der zu löschenden Datei.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Erforderlich Typ BESCHREIBUNG
Autorisierung Richtig Schnur Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
API-Schlüssel Richtig Schnur Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteVectorStoreFileResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json AzureErrorResponse

Komponenten

AzureAIFoundryModelsApiVersion

Eigentum Wert
Typ Schnur
Werte v1
preview

AzureChatCompletionResponseMessage

Die Komponente des erweiterten Antwortmodells für Antwortnachrichten der Chatvervollständigung in Azure OpenAI Service. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature „On Your Data“ für Absicht, Zitate und andere Informationen im Zusammenhang mit der durchgeführten, um Abfragen erweiterten Generierung (Retrieval Augmented Generation) verwendet werden.

Name Typ BESCHREIBUNG Erforderlich Standard
Anmerkungen array Anmerkungen für die Nachricht, falls zutreffend, wenn das Websuchtool verwendet wird. Nein
audio Objekt Wenn die Audioausgabemodalität angefordert wird, enthält dieses Objekt Daten
über die Audioausgabe vom Modell. .
Nein
└– Daten Schnur Vom Modell generierte Base64-codierte Audiobytes in dem Format,
das in der Anforderung angegeben ist.
Nein
└– abläuft_am integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem diese Audioausgabe
auf dem Server nicht mehr zur Verwendung mit mehrteiligen Unterhaltungen
aufgerufen werden kann.
Nein
└─ id Schnur Eindeutiger Bezeichner für diese Audioausgabe. Nein
└– Transkript Schnur Transkript der vom Modell generierten Audiodaten. Nein
Inhalt Schnur Der Inhalt der Nachricht. Ja
context Objekt Eine zusätzliche Eigenschaft, die Chatabschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI-Dienst erstellt werden, wenn
Erweiterungsverhalten verwendet wird. Dazu gehören Absichts- und Zitatinformationen aus dem Feature „On Your Data“.
Nein
└– alle_abgerufenen_Dokumente Objekt Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. Nein
└– chunk_id Schnur Die Segment-ID für das Zitat. Nein
└– Inhalt Schnur Der Inhalt des Zitats. Nein
└– Datenquellenindex integer Der Index der Datenquelle, die für den Abruf verwendet wird. Nein
└– Dateipfad Schnur Der Dateipfad für das Zitat. Nein
└– filter_begründung enum Falls zutreffend, ein Hinweis, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
Nein
└─ original_search_score number Die ursprüngliche Suchergebnisscore für den Abruf. Nein
└– rerank_score number Der Neubewertungsscore für den Abruf. Nein
└– Suchanfragen array Die zum Abrufen von Dokumenten ausgeführten Suchabfragen. Nein
└– Titel Schnur Der Titel für das Zitat. Nein
└– URL Schnur Die URL des Zitats. Nein
└- Zitate array Die Zitate, die vom Datenabruf erzeugt werden. Nein
└– Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
reasoning_content Schnur Eine Azure-spezifische Erweiterungseigenschaft, die generierte Begründungsinhalte aus unterstützten Modellen enthält. Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
Rolle (role) enum Die Rolle des Autors dieser Nachricht
Möglicher Wert: assistant
Ja
tool_calls ChatCompletionMessageToolCallsItem Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein

AzureChatCompletionStreamResponseDelta

Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht in Azure OpenAI Service. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature „On Your Data“ für Absicht, Zitate und andere Informationen im Zusammenhang mit der durchgeführten, um Abfragen erweiterten Generierung (Retrieval Augmented Generation) verwendet werden.

Name Typ BESCHREIBUNG Erforderlich Standard
audio Objekt Nein
└– Daten Schnur Nein
└– abläuft_am integer Nein
└─ id Schnur Nein
└– Transkript Schnur Nein
Inhalt Schnur Die Inhalte der Blocknachricht. Nein
context Objekt Eine zusätzliche Eigenschaft, die Chatabschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI-Dienst erstellt werden, wenn
Erweiterungsverhalten verwendet wird. Dazu gehören Absichts- und Zitatinformationen aus dem Feature „On Your Data“.
Nein
└– alle_abgerufenen_Dokumente Objekt Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. Nein
└– chunk_id Schnur Die Segment-ID für das Zitat. Nein
└– Inhalt Schnur Der Inhalt des Zitats. Nein
└– Datenquellenindex integer Der Index der Datenquelle, die für den Abruf verwendet wird. Nein
└– Dateipfad Schnur Der Dateipfad für das Zitat. Nein
└– filter_begründung enum Falls zutreffend, ein Hinweis, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
Nein
└─ original_search_score number Die ursprüngliche Suchergebnisscore für den Abruf. Nein
└– rerank_score number Der Neubewertungsscore für den Abruf. Nein
└– Suchanfragen array Die zum Abrufen von Dokumenten ausgeführten Suchabfragen. Nein
└– Titel Schnur Der Titel für das Zitat. Nein
└– URL Schnur Die URL des Zitats. Nein
└- Zitate array Die Zitate, die vom Datenabruf erzeugt werden. Nein
└– Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
reasoning_content Schnur Eine Azure-spezifische Erweiterungseigenschaft, die generierte Begründungsinhalte aus unterstützten Modellen enthält. Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Nein
Rolle (role) Objekt Die Rolle des Autors einer Nachricht Nein
tool_calls array Nein

AzureChatDataSource

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chatdatenquelle. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Diskriminator für AzureChatDataSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Name Typ BESCHREIBUNG Erforderlich Standard
Typ Objekt Ja

AzureChatDataSourceAccessTokenAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
access_token Schnur Ja
Typ enum
Möglicher Wert: access_token
Ja

AzureChatDataSourceApiKeyAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
Schlüssel Schnur Ja
Typ enum
Möglicher Wert: api_key
Ja

AzureChatDataSourceAuthenticationOptions

Diskriminator für AzureChatDataSourceAuthenticationOptions

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Name Typ BESCHREIBUNG Erforderlich Standard
Typ AzureChatDataSourceAuthenticationOptionsType Ja

AzureChatDataSourceAuthenticationOptionsType

Eigentum Wert
Typ Schnur
Werte api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
connection_string Schnur Ja
Typ enum
Möglicher Wert: connection_string
Ja

AzureChatDataSourceDeploymentNameVectorizationSource

Stellt eine Vektorisierungsquelle dar, die interne Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt. Im Gegensatz zur Endpunkt-basierten Vektorisierungsquelle muss eine Bereitstellungsname-basierte Vektorisierungsquelle Teil derselben Azure OpenAI-Ressource sein, kann aber sogar in privaten Netzwerken verwendet werden.

Name Typ BESCHREIBUNG Erforderlich Standard
deployment_name Schnur Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Instanz vorhanden sein
Ressource als Modellimplementierung, die für Chatabschlüsse verwendet wird.
Ja
dimensions integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Nur in „text-embedding-3” und späteren Modellen unterstützt.
Nein
Typ enum Der Typbezeichner, immer „deployment_name“ für diesen Vektorisierungsquelltyp.
Möglicher Wert: deployment_name
Ja

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
encoded_api_key Schnur Ja
Typ enum
Möglicher Wert: encoded_api_key
Ja

AzureChatDataSourceEndpointVectorizationSource

Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt.

Name Typ BESCHREIBUNG Erforderlich Standard
Authentifizierung Objekt Ja
└─ Zugriffstoken Schnur Nein
└– Schlüssel Schnur Nein
└– Typ enum
Möglicher Wert: access_token
Nein
dimensions integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Nur in „text-embedding-3” und späteren Modellen unterstützt.
Nein
Endpunkt Schnur Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Sie sollte im folgenden Format sein:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter „api-version“ ist nicht zulässig.
Ja
Typ enum Der Typbezeichner, immer „endpoint“ für diesen Vektorisierungsquelltyp.
Möglicher Wert: endpoint
Ja

AzureChatDataSourceIntegratedVectorizationSource

Stellt eine integrierte Vektorisierungsquelle dar, wie in der unterstützenden Suchressource definiert.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typbezeichner, immer „integriert” für diesen Vektorisierungsquelltyp.
Möglicher Wert: integrated
Ja

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
Schlüssel Schnur Ja
key_id Schnur Ja
Typ enum
Möglicher Wert: key_and_key_id
Ja

AzureChatDataSourceModelIdVectorizationSource

Stellt eine Vektorisierungsquelle dar, die Dienstaufrufe basierend auf einer Suchdienstmodell-ID vornimmt. Dieser Quelltyp wird derzeit nur von Elasticsearch unterstützt.

Name Typ BESCHREIBUNG Erforderlich Standard
model_id Schnur Die Einbettungsmodell-Build-ID, die für die Vektorisierung verwendet werden soll. Ja
Typ enum Der Typbezeichner, immer „model_id“ für diesen Vektorisierungsquelltyp.
Möglicher Wert: model_id
Ja

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: system_assigned_managed_identity
Ja

AzureChatDataSourceType

Eigentum Wert
Typ Schnur
Werte azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
managed_identity_resource_id Schnur Ja
Typ enum
Möglicher Wert: user_assigned_managed_identity
Ja

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Name Typ BESCHREIBUNG Erforderlich Standard
Kennwort Schnur Ja
Typ enum
Möglicher Wert: username_and_password
Ja
username Schnur Ja

AzureChatDataSourceVectorizationSource

Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann.

Diskriminator für AzureChatDataSourceVectorizationSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Name Typ BESCHREIBUNG Erforderlich Standard
Typ Objekt Ja

AzureChatDataSourceVectorizationSourceType

Eigentum Wert
Typ Schnur
Werte endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Eine zusätzliche Eigenschaft, die Chatabschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI-Dienst erstellt werden, wenn Erweiterungsverhalten verwendet wird. Dazu gehören Absichts- und Zitatinformationen aus dem Feature „On Your Data“.

Name Typ BESCHREIBUNG Erforderlich Standard
all_retrieved_documents Objekt Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. Nein
└– chunk_id Schnur Die Segment-ID für das Zitat. Nein
└– Inhalt Schnur Der Inhalt des Zitats. Nein
└– Datenquellenindex integer Der Index der Datenquelle, die für den Abruf verwendet wird. Nein
└– Dateipfad Schnur Der Dateipfad für das Zitat. Nein
└– filter_begründung enum Falls zutreffend, ein Hinweis, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
Nein
└─ original_search_score number Die ursprüngliche Suchergebnisscore für den Abruf. Nein
└– rerank_score number Der Neubewertungsscore für den Abruf. Nein
└– Suchanfragen array Die zum Abrufen von Dokumenten ausgeführten Suchabfragen. Nein
└– Titel Schnur Der Titel für das Zitat. Nein
└– URL Schnur Die URL des Zitats. Nein
citations array Die Zitate, die vom Datenabruf erzeugt werden. Nein
Absicht Schnur Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten Nein

AzureContentFilterBlocklistResult

Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.

Name Typ BESCHREIBUNG Erforderlich Standard
details array Die Paare einzelner Blocklisten-IDs, und ob sie zu einer Filteraktion geführt haben. Nein
gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja

AzureContentFilterCompletionTextSpan

Eine Darstellung eines Bereichs des Vervollständigungstexts, der von Azure OpenAI-Inhaltsfilterergebnissen verwendet wird.

Name Typ BESCHREIBUNG Erforderlich Standard
completion_end_offset integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. Ja
completion_start_offset integer Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. Ja

AzureContentFilterCompletionTextSpanDetectionResult

Name Typ BESCHREIBUNG Erforderlich Standard
details array Detaillierte Informationen zu den erkannten Vervollständigungstextabschnitten. Ja
detected boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja

AzureContentFilterCustomTopicResult

Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen.

Name Typ BESCHREIBUNG Erforderlich Standard
details array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja

AzureContentFilterDetectionResult

Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
detected boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja

AzureContentFilterPersonallyIdentifiableInformationResult

Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten.

Name Typ BESCHREIBUNG Erforderlich Standard
redacted_text Schnur Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. Nein
sub_categories array Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). Nein

AzureContentFilterResultForChoice

Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
custom_blocklists Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten array Die Paare einzelner Blocklisten-IDs, und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Nein
custom_topics Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Nein
Fehler Objekt Wenn vorhanden, Details über einen Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abschließen konnte. Nein
└– Code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Nein
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
hate Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
personally_identifiable_information Objekt Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten. Nein
└– redacted_text Schnur Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. Nein
└─ Unterkategorien array Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). Nein
profanity Objekt Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
protected_material_code Objekt Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. Nein
└- Zitat Objekt Falls verfügbar, beschreiben die Zitatdetails die zugeordnete Lizenz und den zugehörigen Speicherort. Nein
└– URL Schnur Die mit der Lizenz verknüpfte URL. Nein
└– Lizenz Schnur Der Name oder der Bezeichner der Lizenz, die der Erkennung zugeordnet ist. Nein
└– erkannt boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
protected_material_text Objekt Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
self_harm Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
sexual Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nein
violence Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein

AzureContentFilterResultForPrompt

Ein Inhaltsfilterergebnis, das einem einzelnen Eingabepromptelement in einem generativen KI-System zugeordnet ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_filter_results Objekt Die Inhaltsfilterkategoriedetails für das Ergebnis. Nein
└– benutzerdefinierte Sperrlisten Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten array Die Paare einzelner Blocklisten-IDs, und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Nein
└─ custom_topics Objekt Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten array Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Nein
└– Fehler Objekt Wenn vorhanden, Details über einen Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abschließen konnte. Nein
└– Code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Nein
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
└– Hass Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
└– indirekter_Angriff Objekt Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
└– Entsperrung Objekt Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
└– Profanität Objekt Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. Nein
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Nein
└– Selbstverletzung Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
└─ sexual Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
└– Gewalt Objekt Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Nein
└– Schweregrad enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Nein
prompt_index integer Der Index des Eingabeprompts, der den zugehörigen Inhaltsfilter-Ergebniskategorien zugeordnet ist. Nein

AzureContentFilterSeverityResult

Ein beschriftetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet.

Name Typ BESCHREIBUNG Erforderlich Standard
gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
severity enum Der gekennzeichnete Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureCosmosDBChatDataSource

Stellt eine Datenquellenkonfiguration dar, die eine Azure CosmosDB-Ressource verwenden wird.

Name Typ BESCHREIBUNG Erforderlich Standard
Parameter Objekt Die Parameterinformationen zum Steuern der Verwendung der Azure CosmosDB-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle
Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt.
Nein Falsch
└– Authentifizierung AzureChatDataSourceConnectionStringAuthenticationOptions Nein
└– container_name Schnur Nein
└─ database_name Schnur Nein
└– embedding_dependency AzureChatDataSourceVectorizationSource Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. Nein
└– fields_mapping Objekt Nein
└─ content_fields array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└─ filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└─ Vektorfelder array Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Nein
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig nimmt das System eine automatische Bestimmung vor.
Nein
└– Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort.
Nein
└– top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. Nein
Typ enum Der diskriminierte Typbezeichner, der immer „azure_cosmos_db“ ist.
Möglicher Wert: azure_cosmos_db
Ja

AzureCreateChatCompletionRequest

Das erweiterte Anforderungsmodell für Chatvervollständigungen mit dem Azure OpenAI Service. Dadurch wird die Möglichkeit hinzugefügt, Datenquellen für das Feature „On Your Data“ bereitzustellen.

Name Typ BESCHREIBUNG Erforderlich Standard
audio Objekt Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit
modalities: ["audio"].
Nein
└─ format enum Gibt das Audioformat der Ausgabe an. Muss eins der folgende Formate aufweisen: wav, mp3, flac,
opus oder pcm16.
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
Nein
└– Stimme Objekt Nein
data_sources array Die Datenquellen, die für das Feature „On Your Data“ verwendet werden sollen, exklusiv für Azure OpenAI. Nein
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf
ihrer bisherigen Häufigkeit im Text, wodurch die Modellzahlen verringert werden
Wahrscheinlichkeit, dieselbe Zeile wörtlich zu wiederholen.
Nein 0
function_call enum Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
Mögliche Werte: none, auto
Nein
Funktionen array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein
logit_bias Objekt Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im
Tokenizer) einem verwandten Bias-Wert von -100 bis 100 zuordnet. Mathematisch
der Trend wird vor der Stichprobenentnahme zu den logits hinzugefügt, die vom Modell generiert wurden.
Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten
die Wahrscheinlichkeit der Auswahl erhöhen oder verringern; Werte wie -100 oder 100
sollte dies zu einem Verbot oder einer exklusiven Auswahl des betreffenden Tokens führen.
Nein Nichts
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn WAHR
gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das zurückgegeben wird in der
content von message.
Nein Falsch
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen
Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.
Nein
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.
Dieser Wert kann zur Kostenkontrolle für über die API generierten Text verwendet werden.

Dieser Wert ist jetzt veraltet zugunsten von max_completion_tokens, und ist
nicht mit Modellen der o1-Serie kompatibel.
Nein
messages array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig von
Modell, das Sie verwenden, werden verschiedene Nachrichtentypen (Modalitäten) unterstützt,
wie Text, Bilder und Audio.
Ja
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
modalities Objekt Ausgabetypen, die das Modell generieren soll.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell
sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]
Nein
Modell Schnur Der Modellimplementierungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. Ja
n integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein 1
Parallele Werkzeugaufrufe Objekt Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
Vorhersage Objekt Basisdarstellung der vorhergesagten Ausgabe eines Modells. Nein
└– Typ OpenAI.ChatOutputPredictionType Nein
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf
ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit des Modells erhöht wird,
über neue Themen zu sprechen.
Nein 0
Denkanstrengung Objekt nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
Antwortformat Objekt Nein
└– Typ enum
Mögliche Werte: text, , json_objectjson_schema
Nein
Seed integer Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
Nein
stop Objekt Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Das
Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Nein
store boolean Ob die Ausgabe dieser Chat-Anfrage dieser Chatabschlussanforderung für
die Verwendung in Modelldestillation oder Bewertungsprodukten gespeichert werden soll oder nicht.
Nein Falsch
Datenstrom boolean Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt,
da sie mithilfe von server-sent-Ereignissen generiert werden.
Nein Falsch
stream_options Objekt Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. Nein
└– include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor dem data: [DONE]-
Meldung. Das Feld usage in diesem Abschnitt zeigt die Tokenverbrauchsstatistiken
für die gesamte Anforderung an, und das Feld choices ist immer ein leeres
Array.

Alle anderen Blöcke werden auch ein Feld usage enthalten, aber mit einem NULL-
Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den
letzten Verbrauchsblock, der den gesamten Tokenverbrauch für die Anforderung enthält.
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Toolauswahl OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Nein
Werkzeuge array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. Nein
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der ihnen helfen kann,
Missbrauch zu überwachen und erkennen.
Nein
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, welche die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. Nein

AzureCreateChatCompletionResponse

Das erweiterte Antwortmodell für die oberste Ebene der Chat-Vervollständigungsantwort im Azure OpenAI-Dienst. Dieses Modell fügt Anmerkungen zum Inhaltsfilter für verantwortungsvolle KI für Prompteingabe hinzu.

Name Typ BESCHREIBUNG Erforderlich Standard
Optionen array Ja
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Ja
id Schnur Ein eindeutiger Bezeichner für die Chatvervollständigung Ja
Modell Schnur Das Modell, das für die Chatvervollständigung verwendet wird Ja
Objekt enum Der Objekttyp, der immer chat.completion ist.
Möglicher Wert: chat.completion
Ja
prompt_filter_results array Die Anmerkungen zu Inhaltsfiltern für verantwortungsvolle KI, die mit Prompteingaben in Chatabschlüsse verknüpft sind. Nein
system_fingerprint Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
usage OpenAI.CompletionUsage Nutzungsstatistiken für die Vervollständigungsanforderung Nein

AzureCreateChatCompletionStreamResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Optionen array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist. Kann auch leer sein für
das letzte Segment, wenn Sie stream_options: {"include_usage": true} festlegen.
Ja
content_filter_results AzureContentFilterResultForChoice Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. Nein
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. Ja
delta AzureChatCompletionStreamResponseDelta Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht in Azure OpenAI Service.
Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature „On Your Data“ für Absicht, Zitate und andere
Informationen im Zusammenhang mit der durchgeführten Retrieval Augmented Generation.
Nein
id Schnur Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. Ja
Modell Schnur Das Modell, das die Vervollständigung generiert. Ja
Objekt enum Der Objekttyp, der immer chat.completion.chunk ist.
Möglicher Wert: chat.completion.chunk
Ja
system_fingerprint Schnur Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
Nein
usage Objekt Nutzungsstatistiken für die Vervollständigungsanforderung Nein
└─ completion_tokens integer Anzahl der Token in der generierten Vervollständigung Nein 0
└─ completion_tokens_details Objekt Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. Nein
└– akzeptierte_Vorhersage_Token integer Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der
Vorhersage, die in der Vervollständigung angezeigt wurden.
Nein 0
└─ audio_tokens integer Vom Modell generierte Audioeingabetoken. Nein 0
└─ reasoning_tokens integer Vom Modell generierte Tokens zur Begründung. Nein 0
└– rejected_prediction_tokens integer Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der
Vorhersage, die im Abschluss nicht angezeigt wurden. Jedoch werden diese Token wie
Begründungstoken
für Grenzwerte bei Abrechnung, Ausgabe und Kontextfenster weiterhin zu Summe
gezählt.
Nein 0
└– prompt_tokens integer Anzahl der Token im Prompt. Nein 0
└─ prompt_tokens_details Objekt Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. Nein
└─ audio_tokens integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. Nein 0
└– zwischengespeicherte_Token integer Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. Nein 0
└─ total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Nein 0

AzureCreateEmbeddingRequest

Name Typ BESCHREIBUNG Erforderlich Standard
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. Nein
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.
Mögliche Werte: float, base64
Nein
Eingabe Zeichenfolge oder Array Ja
Modell Schnur Das Modell, das für die Einbettungsanforderung verwendet werden soll. Ja
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein

AzureCreateFileRequestMultiPart

Name Typ BESCHREIBUNG Erforderlich Standard
expires_after Objekt Ja
└– Anker AzureFileExpiryAnchor Nein
└─ Sekunden integer Nein
file Schnur Ja
purpose enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwenden
Mögliche Werte: assistants, , batch, fine-tuneevals
Ja

AzureCreateResponse

Name Typ BESCHREIBUNG Erforderlich Standard
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
include array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit
unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung
in den Aufrufelementen des Code-Interpreter-Tools.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs.
- file_search_call.results: Fügen Sie die Suchergebnisse ein
des Aufrufs des Dateisuchtools.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-
Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in
mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B.
wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt ist
für das Null-Datenaufbewahrungsprogramm registriert).
Nein
Eingabe Zeichenfolge oder Array Nein
instructions Schnur Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Modell Schnur Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. Ja
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└─ id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
└─ version Schnur Optionale Version der Promptvorlage. Nein
Begründung Objekt nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet. , verwenden Sie stattdessen summary.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
store boolean Gibt an, ob die generierte Modellantwort gespeichert werden soll zur späteren Abfrage über
.
Nein Richtig
Datenstrom boolean Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt,
da sie mithilfe von server-sent-Ereignissen generiert werden.
Siehe den Abschnitt „Streaming“ weiter unten
finden Sie weitere Informationen.
Nein Falsch
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein 1
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
Toolauswahl Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines oder
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Funktionen des Modells erweitern, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
die dem Modell das Aufrufen Ihres eigenen Codes ermöglichen.
Nein
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein 1
Kürzung enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein

Azure-Fehlermeldung

Name Typ BESCHREIBUNG Erforderlich Standard
Fehler Objekt Die Fehlerdetails. Nein
└– Code Schnur Der eindeutige, vom Computer generierte Bezeichner für den Fehler. Nein
└─ innerer_Fehler Nein
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Nein
└- param Schnur Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter Nein
└– Typ enum Der Objekttyp, immer „Fehler”.
Möglicher Wert: error
Nein

AzureEvalAPICompletionsSamplingParams

Name Typ BESCHREIBUNG Erforderlich Standard
Parallele Werkzeugaufrufe boolean Nein
Antwortformat OpenAI.ResponseTextFormatConfiguration Nein
Werkzeuge array Nein

AzureEvalAPIModelSamplingParams

Name Typ BESCHREIBUNG Erforderlich Standard
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Tokens in der generierten Ausgabe. Nein
Denkanstrengung enum Steuert den Grad des Begründungsaufwands, der während der Generierung angewendet wird.
Mögliche Werte: low, , mediumhigh
Nein
Seed integer Ein Startwert zum Initialisieren der Zufallsmuster während der Stichprobenentnahme. Nein
Temperatur number Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. Nein
top_p number Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. Nein

AzureEvalAPIResponseSamplingParams

Name Typ BESCHREIBUNG Erforderlich Standard
Parallele Werkzeugaufrufe boolean Nein
Antwortformat OpenAI.ResponseTextFormatConfiguration Nein
Werkzeuge array Nein

AzureFileExpiryAnchor

Eigentum Wert
Typ Schnur
Werte created_at

AzureFineTuneReinforcementMethod

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└─ calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└─ graders Objekt Nein
└– Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
Hyperparameter OpenAI.FineTuneReinforcementHyperparameters Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter. Nein
Antwortformat Objekt Nein
└– json_schema Objekt JSON-Schema für das Antwortformat Nein
└– Typ enum Typ des Antwortformats
Möglicher Wert: json_schema
Nein

AzureListFilesResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

AzureOpenAIFile

Name Typ BESCHREIBUNG Erforderlich Standard
Byte integer Die Größe der Datei in Byte. Ja
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Datei. Ja
läuft_ab_am integer Der Unix-Zeitstempel (in Sekunden) für das Ablaufdatum der Datei. Nein
Dateiname Schnur Der Name der Datei. Ja
id Schnur Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer file ist.
Möglicher Wert: file
Ja
purpose enum Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, assistants_output, batch, batch_output, fine-tune und fine-tune-results.
Mögliche Werte: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals
Ja
status enum
Mögliche Werte: uploaded, pending, running, processed, error, deleting, deleted
Ja
status_details Schnur Veraltet (nicht mehr empfohlen) Details dazu, warum bei der Überprüfung einer Trainingsdatei für die Feinabstimmung ein Fehler aufgetreten ist, finden Sie im Feld error im fine_tuning.job. Nein

AzurePiiSubCategoryResult

Ergebnisdetails für einzelne PIIHarmSubCategory(s).

Name Typ BESCHREIBUNG Erforderlich Standard
detected boolean Gibt an, ob die gekennzeichnete Inhaltsunterkategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion für diese Unterkategorie geführt hat. Ja
redigiert boolean Gibt an, ob der Inhalt für diese Unterkategorie redigiert wurde. Ja
sub_category Schnur Die PIIHarmSubCategory, die ausgewertet wurde. Ja

AzureResponse

Name Typ BESCHREIBUNG Erforderlich Standard
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
erstellt_am integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
Fehler Objekt Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Ja
└– Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
id Schnur Eindeutiger Bezeichner für diese Antwort Ja
incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Ja
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
instructions Zeichenfolge oder Array Ja
max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Modell Schnur Das Modell, das zum Generieren dieser Antwort verwendet wird. Ja
Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
output_text Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└─ id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
└─ version Schnur Optionale Version der Promptvorlage. Nein
Begründung Objekt nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet. , verwenden Sie stattdessen summary.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Ja
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
Toolauswahl Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines oder
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Ja
Kürzung enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
usage OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Ja

AzureSearchChatDataSource

Stellt eine Datenquellenkonfiguration dar, die eine Azure Search-Ressource verwenden wird.

Name Typ BESCHREIBUNG Erforderlich Standard
Parameter Objekt Die Parameterinformationen zum Steuern der Verwendung der Azure Search-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle
Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt.
Nein Falsch
└– Authentifizierung Objekt Nein
└─ Zugriffstoken Schnur Nein
└– Schlüssel Schnur Nein
└– managed_identity_resource_id Schnur Nein
└– Typ enum
Möglicher Wert: access_token
Nein
└– embedding_dependency Objekt Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt. Nein
└– Authentifizierung AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions Der Authentifizierungsmechanismus, der mit der Endpunkt-basierten Vektorisierungsquelle verwendet werden soll.
Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen.
Nein
└– deployment_name Schnur Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Instanz vorhanden sein
Ressource als Modellimplementierung, die für Chatabschlüsse verwendet wird.
Nein
└- Abmessungen integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Nur in „text-embedding-3” und späteren Modellen unterstützt.
Nein
└– Endpunkt Schnur Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Sie sollte im folgenden Format sein:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter „api-version“ ist nicht zulässig.
Nein
└– Typ enum Der Typbezeichner, immer „integriert” für diesen Vektorisierungsquelltyp.
Möglicher Wert: integrated
Nein
└– Endpunkt Schnur Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. Nein
└– fields_mapping Objekt Die Feldzuordnungen, die mit der Azure Search-Ressource verwendet werden sollen. Nein
└─ content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Nein
└─ Inhalt_Feldtrenner Schnur Das Trennmuster, das Inhaltsfelder verwenden sollen. Nein
└─ filepath_field Schnur Der Name des Indexfelds, das als Dateipfad verwendet werden soll. Nein
└- image_vector_fields array Die Namen von Feldern, die Bildvektordaten darstellen. Nein
└– Titel_Feld Schnur Der Name des Indexfelds, das als Titel verwendet werden soll. Nein
└– url_field Schnur Der Name des Indexfelds, das als URL verwendet werden soll. Nein
└─ Vektorfelder array Die Namen von Feldern, die Vektordaten darstellen. Nein
└─ filter Schnur Ein Filter, der auf die Suche angewendet werden soll. Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Der Name des zu verwendenden Indexes, wie in der Azure Search-Ressource angegeben. Nein
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig nimmt das System eine automatische Bestimmung vor.
Nein
└– Abfragetyp enum Der Abfragetyp für die zu verwendende Azure Search-Ressource.
Mögliche Werte: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid
Nein
└─ semantische_Konfiguration Schnur Zusätzliche semantische Konfiguration für die Abfrage. Nein
└– Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort.
Nein
└– top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. Nein
Typ enum Der diskriminierte Typbezeichner, der immer „azure_search” ist.
Möglicher Wert: azure_search
Ja

AzureUserSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, welche die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud.

Name Typ BESCHREIBUNG Erforderlich Standard
application_name Schnur Der Namen der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. Nein
end_user_id Schnur Dieser Bezeichner ist die Benutzerobjekt-ID von Microsoft Entra ID (früher Azure Active Directory), die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. Nein
end_user_tenant_id Schnur Die Microsoft 365-Mandanten-ID, zu der der Endbenutzer gehört. Sie ist erforderlich, wenn die generative KI-Anwendung mandantenfähig ist. Nein
source_ip Schnur Erfasst die IP-Adresse des ursprünglichen Clients. Nein

ChatCompletionMessageToolCallsItem

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

Array von: OpenAI.ChatCompletionMessageToolCall

CopiedAccountDetails

Name Typ BESCHREIBUNG Erforderlich Standard
destinationResourceId Schnur Die ID der Zielressource, in die das Modell kopiert wurde. Ja
region Schnur Die Region, in die das Modell kopiert wurde. Ja
status enum Der Status des Kopiervorgangs.
Mögliche Werte: Completed, , FailedInProgress
Ja

CopyModelRequest

Name Typ BESCHREIBUNG Erforderlich Standard
destinationResourceId Schnur Die ID der zu kopierenden Zielressource. Ja
region Schnur Die Region, in die das Modell kopiert werden soll. Ja

CopyModelResponse

Name Typ BESCHREIBUNG Erforderlich Standard
checkpointedModelName Schnur Die ID des kopierten Modells. Ja
copiedAccountDetails array Die ID der Zielressourcen-ID, in die sie kopiert wurde Ja
fineTuningJobId Schnur Die ID des Feinabstimmungsauftrags, aus dem der Prüfpunkt kopiert wurde. Ja

ElasticsearchChatDataSource

Name Typ BESCHREIBUNG Erforderlich Standard
Parameter Objekt Die Parameterinformationen zum Steuern der Verwendung der Elasticsearch-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle
Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt.
Nein Falsch
└– Authentifizierung Objekt Nein
└– encoded_api_key Schnur Nein
└– Schlüssel Schnur Nein
└– key_id Schnur Nein
└– Typ enum
Möglicher Wert: encoded_api_key
Nein
└– embedding_dependency AzureChatDataSourceVectorizationSource Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. Nein
└– Endpunkt Schnur Nein
└– fields_mapping Objekt Nein
└─ content_fields array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└─ filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└─ Vektorfelder array Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Nein
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig nimmt das System eine automatische Bestimmung vor.
Nein
└– Abfragetyp enum
Mögliche Werte: simple, vector
Nein
└– Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort.
Nein
└– top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. Nein
Typ enum Der diskriminierte Typbezeichner, der immer „elasticsearch” ist.
Möglicher Wert: elasticsearch
Ja

MongoDBChatDataSource

Name Typ BESCHREIBUNG Erforderlich Standard
Parameter Objekt Die Parameterinformationen zum Steuern der Verwendung der MongoDB-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle
Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt.
Nein Falsch
└– app_name Schnur Der Name der Mongo DB-Anwendung. Nein
└– Authentifizierung Objekt Nein
└– Kennwort Schnur Nein
└– Typ enum
Möglicher Wert: username_and_password
Nein
└– Benutzername Schnur Nein
└─ collection_name Schnur Der Name der MongoDB-Sammlung. Nein
└─ database_name Schnur Der Name der MongoDB-Datenbank. Nein
└– embedding_dependency Objekt Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt. Nein
└– Authentifizierung AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions Der Authentifizierungsmechanismus, der mit der Endpunkt-basierten Vektorisierungsquelle verwendet werden soll.
Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen.
Nein
└– deployment_name Schnur Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Instanz vorhanden sein
Ressource als Modellimplementierung, die für Chatabschlüsse verwendet wird.
Nein
└- Abmessungen integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Nur in „text-embedding-3” und späteren Modellen unterstützt.
Nein
└– Endpunkt Schnur Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Sie sollte im folgenden Format sein:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter „api-version“ ist nicht zulässig.
Nein
└– Typ enum Der Typbezeichner, immer „deployment_name“ für diesen Vektorisierungsquelltyp.
Möglicher Wert: deployment_name
Nein
└– Endpunkt Schnur Der Name des MongoDB-Clusterendpunkts. Nein
└– fields_mapping Objekt Feldzuordnungen, die auf Daten angewendet werden sollen, die von der MongoDB-Datenquelle verwendet werden.
Beachten Sie, dass für MongoDB Inhalts- und Vektorfeldzuordnungen erforderlich sind.
Nein
└─ content_fields array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└─ filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└─ Vektorfelder array Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Der Name des MongoDB-Indexes. Nein
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig nimmt das System eine automatische Bestimmung vor.
Nein
└– Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort.
Nein
└– top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. Nein
Typ enum Der diskriminierte Typbezeichner, der immer „mongo_db“ ist.
Möglicher Wert: mongo_db
Ja

OpenAI.Annotation

Diskriminator für OpenAI.Annotation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.AnnotationType Ja

OpenAI.AnnotationFileCitation

Ein Verweis auf eine Datei.

Name Typ BESCHREIBUNG Erforderlich Standard
Datei-ID Schnur Die ID der Datei. Ja
Dateiname Schnur Der Dateiname der Datei, auf die verwiesen wird. Ja
index integer Der Index der Datei in der Liste der Dateien. Ja
Typ enum Der Typ des Dateizitats Immer file_citation.
Möglicher Wert: file_citation
Ja

OpenAI.AnnotationFilePath

Ein Pfad zu einer Datei.

Name Typ BESCHREIBUNG Erforderlich Standard
Datei-ID Schnur Die ID der Datei. Ja
index integer Der Index der Datei in der Liste der Dateien. Ja
Typ enum Der Typ des Dateityps. Immer file_path.
Möglicher Wert: file_path
Ja

OpenAI.AnnotationType

Eigentum Wert
Typ Schnur
Werte file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Ein Verweis auf eine Webressource, die zum Generieren einer Modellantwort verwendet wird.

Name Typ BESCHREIBUNG Erforderlich Standard
end_index integer Der Index des letzten Zeichens des URL-Verweises in der Nachricht. Ja
start_index integer Der Index des ersten Zeichens des URL-Verweises in der Nachricht. Ja
title Schnur Der Titel der Webressource. Ja
Typ enum Der Typ des URL-Verweises. Immer url_citation.
Möglicher Wert: url_citation
Ja
url Schnur Die URL der Webressource. Ja

OpenAI.ApproximateLocation

Name Typ BESCHREIBUNG Erforderlich Standard
Stadt Schnur Nein
country Schnur Nein
region Schnur Nein
Zeitzone Schnur Nein
Typ enum
Möglicher Wert: approximate
Ja

OpenAI.AutoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.ChatCompletionFunctionCallOption

Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Name Typ BESCHREIBUNG Erforderlich Standard
name Schnur Der Name der aufzurufenden Funktion. Ja

OpenAI.ChatCompletionFunctions

Name Typ BESCHREIBUNG Erforderlich Standard
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Parameter Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
Lesen Sie die JSON-Schemareferenz
für Dokumentation über das Format.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein

OpenAI.ChatCompletionMessageAudioChunk

Name Typ BESCHREIBUNG Erforderlich Standard
Daten Schnur Nein
läuft_ab_am integer Nein
id Schnur Nein
Transkript Schnur Nein

OpenAI.ChatCompletionMessageToolCall

Name Typ BESCHREIBUNG Erforderlich Standard
Funktion Objekt Die Funktion, die das Modell aufgerufen hat Ja
└- Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. Nein
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
id Schnur Die ID des Toolaufrufs Ja
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionMessageToolCallChunk

Name Typ BESCHREIBUNG Erforderlich Standard
Funktion Objekt Nein
└- Argumente Schnur Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. Nein
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
id Schnur Die ID des Toolaufrufs Nein
index integer Ja
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Nein

OpenAI.ChatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ BESCHREIBUNG Erforderlich Standard
Funktion Objekt Ja
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionRequestAssistantMessage

Nachrichten, die vom Modell als Antwort auf Benutzernachrichten gesendet werden.

Name Typ BESCHREIBUNG Erforderlich Standard
audio Objekt Daten zu einer vorherigen Audioantwort des Modells. Nein
└─ id Schnur Eindeutiger Bezeichner für eine vorherige Audioantwort des Modells. Nein
Inhalt Zeichenfolge oder Array Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
Ablehnung Schnur Die Ablehnungsnachricht des Assistenten. Nein
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).
Möglicher Wert: assistant
Ja
tool_calls ChatCompletionMessageToolCallsItem Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Name Typ BESCHREIBUNG Erforderlich Standard
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
Text Schnur Der Textinhalt. Ja
Typ enum Der Typ des Inhaltsteils
Möglicher Wert: refusal
Ja

OpenAI.ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Ja
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).
Möglicher Wert: developer
Ja

OpenAI.ChatCompletionRequestFunctionMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Schnur Die Inhalte der Funktionsmeldung. Ja
name Schnur Der Name der aufzurufenden Funktion. Ja
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Möglicher Wert: function
Ja

OpenAI.ChatCompletionRequestMessage

Diskriminator für OpenAI.ChatCompletionRequestMessage

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Nein
Rolle (role) Objekt Die Rolle des Autors einer Nachricht Ja

OpenAI.ChatCompletionRequestMessageContentPart

Diskriminator for OpenAI.ChatCompletionRequestMessageContentPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ChatCompletionRequestMessageContentPartType Ja

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Typ BESCHREIBUNG Erforderlich Standard
input_audio Objekt Ja
└– Daten Schnur Base64-codierte Audiodaten. Nein
└─ format enum Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”.
Mögliche Werte: wav, mp3
Nein
Typ enum Der Typ des Inhaltsteils Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.ChatCompletionRequestMessageContentPartFile

Name Typ BESCHREIBUNG Erforderlich Standard
file Objekt Ja
└– file_data Schnur Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell verwendet werden
als String.
Nein
└– file_id Schnur Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. Nein
└– Dateiname Schnur Der Name der Datei, verwendet beim Übergeben der Datei an das Modell als
string.
Nein
Typ enum Der Typ des Inhaltsteils Immer file.
Möglicher Wert: file
Ja

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Typ BESCHREIBUNG Erforderlich Standard
image_url Objekt Ja
└– Detail enum Gibt den Detailgrad des Bilds an.
Mögliche Werte: auto, , lowhigh
Nein
└– URL Schnur Entweder eine URL des Bilds oder die base64-codierten Bilddaten Nein
Typ enum Der Typ des Inhaltsteils
Möglicher Wert: image_url
Ja

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Typ BESCHREIBUNG Erforderlich Standard
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
Typ enum Der Typ des Inhaltsteils
Möglicher Wert: refusal
Ja

OpenAI.ChatCompletionRequestMessageContentPartText

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Der Textinhalt. Ja
Typ enum Der Typ des Inhaltsteils
Möglicher Wert: text
Ja

OpenAI.ChatCompletionRequestMessageContentPartType

Eigentum Wert
Typ Schnur
Werte text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie bei o1-Modellen und neueren Modellen stattdessen developer-Nachrichten für diesen Zweck.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Ja
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: system).
Möglicher Wert: system
Ja

OpenAI.ChatCompletionRequestSystemMessageContentPart

Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Ja
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).
Möglicher Wert: tool
Ja
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Ja

OpenAI.ChatCompletionRequestToolMessageContentPart

Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Von einem Endbenutzer gesendete Nachrichten, die Prompts oder zusätzliche Kontextinformationen enthalten.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Ja
name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
Rolle (role) enum Die Rolle des Nachrichtenerstellers (in diesem Fall: user).
Möglicher Wert: user
Ja

OpenAI.ChatCompletionRequestUserMessageContentPart

Name Typ BESCHREIBUNG Erforderlich Standard
file Objekt Ja
└– file_data Schnur Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell verwendet werden
als String.
Nein
└– file_id Schnur Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. Nein
└– Dateiname Schnur Der Name der Datei, verwendet beim Übergeben der Datei an das Modell als
string.
Nein
image_url Objekt Ja
└– Detail enum Gibt den Detailgrad des Bilds an.
Mögliche Werte: auto, , lowhigh
Nein
└– URL Schnur Entweder eine URL des Bilds oder die base64-codierten Bilddaten Nein
input_audio Objekt Ja
└– Daten Schnur Base64-codierte Audiodaten. Nein
└─ format enum Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”.
Mögliche Werte: wav, mp3
Nein
Text Schnur Der Textinhalt. Ja
Typ enum Der Typ des Inhaltsteils Immer file.
Möglicher Wert: file
Ja

OpenAI.ChatCompletionRole

Die Rolle des Autors einer Nachricht

Eigentum Wert
Beschreibung Die Rolle des Autors einer Nachricht
Typ Schnur
Werte system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Typ BESCHREIBUNG Erforderlich Standard
include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor dem data: [DONE]-
Meldung. Das Feld usage in diesem Abschnitt zeigt die Tokenverbrauchsstatistiken
für die gesamte Anforderung an, und das Feld choices ist immer ein leeres
Array.

Alle anderen Blöcke werden auch ein Feld usage enthalten, aber mit einem NULL-
Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den
letzten Verbrauchsblock, der den gesamten Tokenverbrauch für die Anforderung enthält.
Nein

OpenAI.ChatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
audio Objekt Nein
└– Daten Schnur Nein
└– abläuft_am integer Nein
└─ id Schnur Nein
└– Transkript Schnur Nein
Inhalt Schnur Die Inhalte der Blocknachricht. Nein
function_call Objekt Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Nein
Rolle (role) Objekt Die Rolle des Autors einer Nachricht Nein
tool_calls array Nein

OpenAI.ChatCompletionTokenLogprob

Name Typ BESCHREIBUNG Erforderlich Standard
Byte array Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. Ja
logprob number Die Protokollwahrscheinlichkeit dieses Tokens, wenn es zu den 20 wahrscheinlichsten Tokens gehört. Andernfalls wird der Wert „-9999.0“ verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. Ja
token Schnur Das Token. Ja
top_logprobs array Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Ja

OpenAI.ChatCompletionTool

Name Typ BESCHREIBUNG Erforderlich Standard
Funktion OpenAI.FunctionObject Ja
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Name Typ BESCHREIBUNG Erforderlich Standard
Funktion Objekt Ja
└– Name Schnur Der Name der aufzurufenden Funktion. Nein
Typ enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatOutputPrediction

Basisdarstellung der vorhergesagten Ausgabe eines Modells.

Diskriminator für OpenAI.ChatOutputPrediction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
content OpenAI.ChatOutputPredictionContent
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ChatOutputPredictionType Ja

OpenAI.ChatOutputPredictionContent

Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Ja
Typ enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist
aktuell immer content.
Möglicher Wert: content
Ja

OpenAI.ChatOutputPredictionType

Eigentum Wert
Typ Schnur
Werte content

OpenAI.ChunkingStrategyRequestParam

Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet.

Diskriminator für OpenAI.ChunkingStrategyRequestParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
static OpenAI.StaticChunkingStrategyRequestParam
Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Die Art der Blockbildungsstrategie.
Mögliche Werte: auto, static
Ja

OpenAI.ChunkingStrategyResponseParam

Diskriminator für OpenAI.ChunkingStrategyResponseParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Mögliche Werte: static, other
Ja

OpenAI.CodeInterpreterOutput

Diskriminator für OpenAI.CodeInterpreterOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.CodeInterpreterOutputType Ja

OpenAI.CodeInterpreterOutputImage

Die Bildausgabe des Code-Interpreters.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ der Ausgabe. Immer „image“.
Möglicher Wert: image
Ja
url Schnur Die URL der Bildausgabe des Code-Interpreters. Ja

OpenAI.CodeInterpreterOutputLogs

Die Protokollausgabe aus dem Code-Interpreter.

Name Typ BESCHREIBUNG Erforderlich Standard
logs Schnur Die Protokollausgabe aus dem Code-Interpreter. Ja
Typ enum Der Typ der Ausgabe. Immer „logs“.
Möglicher Wert: logs
Ja

OpenAI.CodeInterpreterOutputType

Eigentum Wert
Typ Schnur
Werte logs
image

OpenAI.CodeInterpreterTool

Ein Tool, das Python-Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.

Name Typ BESCHREIBUNG Erforderlich Standard
Behälter Objekt Konfiguration für einen Codedolmetschercontainer. Optionales Angeben der IDs
der Dateien, für die der Code ausgeführt werden soll.
Ja
└– file_ids array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
└– Typ enum Immer auto.
Möglicher Wert: auto
Nein
Typ enum Der Typ des Codedolmetschertools. Immer code_interpreter.
Möglicher Wert: code_interpreter
Ja

OpenAI.CodeInterpreterToolAuto

Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.

Name Typ BESCHREIBUNG Erforderlich Standard
Datei-IDs array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
Typ enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.CodeInterpreterToolCallItemParam

Ein Toolaufruf zum Ausführen von Code.

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Der auszuführende Code oder NULL, falls nicht verfügbar. Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
Ergebnisse array Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann NULL sein, wenn keine Ausgaben verfügbar sind.
Ja
Typ enum
Möglicher Wert: code_interpreter_call
Ja

OpenAI.CodeInterpreterToolCallItemResource

Ein Toolaufruf zum Ausführen von Code.

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Der auszuführende Code oder NULL, falls nicht verfügbar. Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
Ergebnisse array Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann NULL sein, wenn keine Ausgaben verfügbar sind.
Ja
status enum
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Ja
Typ enum
Möglicher Wert: code_interpreter_call
Ja

OpenAI.Vergleichsfilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Typ BESCHREIBUNG Erforderlich Standard
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
Typ enum Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte
- eq: entspricht
- ne: ungleich
- gt:größer als
- gte: größer oder gleich
- lt:weniger als
- lte: kleiner oder gleich
Mögliche Werte: eq, , ne, gtgte, , , ltlte
Ja
value Zeichenfolge oder Zahl oder boolescher Wert Ja

OpenAI.CompletionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ BESCHREIBUNG Erforderlich Standard
completion_tokens integer Anzahl der Token in der generierten Vervollständigung Ja 0
completion_tokens_details Objekt Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. Nein
└– akzeptierte_Vorhersage_Token integer Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der
Vorhersage, die in der Vervollständigung angezeigt wurden.
Nein 0
└─ audio_tokens integer Vom Modell generierte Audioeingabetoken. Nein 0
└─ reasoning_tokens integer Vom Modell generierte Tokens zur Begründung. Nein 0
└– rejected_prediction_tokens integer Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der
Vorhersage, die im Abschluss nicht angezeigt wurden. Jedoch werden diese Token wie
Begründungstoken
für Grenzwerte bei Abrechnung, Ausgabe und Kontextfenster weiterhin zu Summe
gezählt.
Nein 0
prompt_tokens integer Anzahl der Token im Prompt. Ja 0
prompt_tokens_details Objekt Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. Nein
└─ audio_tokens integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. Nein 0
└– zwischengespeicherte_Token integer Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. Nein 0
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Ja 0

OpenAI.CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Typ BESCHREIBUNG Erforderlich Standard
filters array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
Typ enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja

OpenAI.ComputerAction

Diskriminator für OpenAI.ComputerAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ComputerActionType Ja

OpenAI.ComputerActionClick

Eine Klickaktion.

Name Typ BESCHREIBUNG Erforderlich Standard
Schaltfläche enum Gibt an, welche Maustaste während des Klicks gedrückt wurde. left, right, wheel, back oder forward
Mögliche Werte: left, , rightwheel, , backforward
Ja
Typ enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft
immer auf click festgelegt.
Möglicher Wert: click
Ja
x integer Die X-Koordinate, an welcher der Klick aufgetreten ist. Ja
y integer Die Y-Koordinate, an welcher der Klick aufgetreten ist. Ja

OpenAI.ComputerActionDoubleClick

Eine Doppelklickaktion

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Gibt den Ereignistyp an. Für eine Doppelklickaktion ist diese Eigenschaft
immer auf double_click festgelegt.
Möglicher Wert: double_click
Ja
x integer Die X-Koordinate, an welcher der Doppelklick aufgetreten ist. Ja
y integer Die Y-Koordinate, an welcher der Doppelklick aufgetreten ist. Ja

OpenAI.ComputerActionDrag

Eine Ziehaktion

Name Typ BESCHREIBUNG Erforderlich Standard
Pfad array Ein Array von Koordinaten, die den Pfad der Aktion „Ziehen“ darstellen. Koordinaten werden als ein Array angezeigt
von Objekten, z. B.
<br>[<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br>]<br>
Ja
Typ enum Gibt den Ereignistyp an. Für eine Ziehaktion ist diese Eigenschaft
immer auf drag festgelegt.
Möglicher Wert: drag
Ja

OpenAI.ComputerActionKeyPress

Eine Sammlung von Tastenanschlägen, die das Modell durchführen möchte.

Name Typ BESCHREIBUNG Erforderlich Standard
keys array Die Kombination von Tasten, die das Modell gedrückt haben möchte. Dies ist ein
Array von Zeichenfolgen, die jeweils eine Taste darstellen.
Ja
Typ enum Gibt den Ereignistyp an. Bei einer Tastendruckaktion ist diese Eigenschaft
immer auf keypress festgelegt.
Möglicher Wert: keypress
Ja

OpenAI.ComputerActionMove

Aktion zur Änderung der Mauszeigerposition

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Gibt den Ereignistyp an. Für das Verschieben ist diese Eigenschaft
immer auf move festgelegt.
Möglicher Wert: move
Ja
x integer Die X-Koordinate, zu der verschoben werden soll. Ja
y integer Die Y-Koordinate, zu der verschoben werden soll. Ja

OpenAI.ComputerActionScreenshot

Screenshotaktion

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft
immer auf screenshot festgelegt.
Möglicher Wert: screenshot
Ja

OpenAI.ComputerActionScroll

Eine Scrollaktion

Name Typ BESCHREIBUNG Erforderlich Standard
scroll_x integer Der horizontale Scrollabstand Ja
scroll_y integer Der vertikale Scrollabstand Ja
Typ enum Gibt den Ereignistyp an. Für eine Scrollaktion ist diese Eigenschaft
immer auf scroll festgelegt.
Möglicher Wert: scroll
Ja
x integer Die X-Koordinate, an der das Scrollen erfolgt ist Ja
y integer Die Y-Koordinate, an welcher der Bildlauf aufgetreten ist. Ja

OpenAI.ComputerActionType

Eigentum Wert
Typ Schnur
Werte screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Eine Aktion, die in Text eingegeben werden soll.

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Der einzugebende Text. Ja
Typ enum Gibt den Ereignistyp an. Für eine Typaktion ist diese Eigenschaft
immer auf type festgelegt.
Möglicher Wert: type
Ja

OpenAI.ComputerActionWait

Eine Warteaktion.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft
immer auf wait festgelegt.
Möglicher Wert: wait
Ja

OpenAI.ComputerToolCallItemParam

Ein Toolaufruf eines von einem Computer verwendeten Tools

Name Typ BESCHREIBUNG Erforderlich Standard
action OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computer-Anruf. Ja
Typ enum
Möglicher Wert: computer_call
Ja

OpenAI.ComputerToolCallItemResource

Ein Toolaufruf eines von einem Computer verwendeten Tools

Name Typ BESCHREIBUNG Erforderlich Standard
action OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computer-Anruf. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum
Möglicher Wert: computer_call
Ja

OpenAI.ComputerToolCallOutputItemOutput

Diskriminator for OpenAI.ComputerToolCallOutputItemOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ComputerToolCallOutputItemOutputType Ein Computer-Screenshot, das mit dem Computernutzungstool verwendet wird. Ja

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Typ BESCHREIBUNG Erforderlich Standard
Datei-ID Schnur Nein
image_url Schnur Nein
Typ enum
Möglicher Wert: computer_screenshot
Ja

OpenAI.ComputerToolCallOutputItemOutputType

Ein Computer-Screenshot, das mit dem Computernutzungstool verwendet wird.

Eigentum Wert
Beschreibung Ein Computer-Screenshot, das mit dem Computernutzungstool verwendet wird.
Typ Schnur
Werte computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Die Ausgabe eines Computertoolaufrufs

Name Typ BESCHREIBUNG Erforderlich Standard
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitsprüfungen, die von der
entwickelnden Person bestätigt wurden
Nein
call_id Schnur Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. Ja
output OpenAI.ComputerToolCallOutputItemOutput Ja
Typ enum
Möglicher Wert: computer_call_output
Ja

OpenAI.ComputerToolCallOutputItemResource

Die Ausgabe eines Computertoolaufrufs

Name Typ BESCHREIBUNG Erforderlich Standard
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitsprüfungen, die von der
entwickelnden Person bestätigt wurden
Nein
call_id Schnur Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. Ja
output OpenAI.ComputerToolCallOutputItemOutput Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum
Möglicher Wert: computer_call_output
Ja

OpenAI.ComputerToolCallSafetyCheck

Eine ausstehende Sicherheitsüberprüfung für den Computeranruf.

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Der Typ der ausstehenden Sicherheitsüberprüfung. Ja
id Schnur Die ID der ausstehenden Sicherheitsprüfung Ja
Nachricht Schnur Details zur ausstehenden Sicherheitsüberprüfung. Ja

OpenAI.ComputerUsePreviewTool

Ein Tool, das einen virtuellen Computer steuert.

Name Typ BESCHREIBUNG Erforderlich Standard
Anzeigehöhe integer Die Höhe der Computeranzeige. Ja
Bildschirmbreite integer Die Breite der Computeranzeige. Ja
Umwelt enum Der Typ der zu steuernden Computerumgebung.
Mögliche Werte: windows, , maclinux, , ubuntubrowser
Ja
Typ enum Der Typ des Tools zur Computernutzung. Immer computer_use_preview.
Möglicher Wert: computer_use_preview
Ja

OpenAI.Coordinate

Ein X/Y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Typ BESCHREIBUNG Erforderlich Standard
x integer Die X-Koordinate. Ja
y integer Die Y-Koordinate. Ja

OpenAI.CreateEmbeddingResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Die Liste der vom Modell generierten Einbettungen. Ja
Modell Schnur Der Name des Modells, das zum Generieren der Einbettung verwendet wurde. Ja
Objekt enum Der Objekttyp, der immer „list“ lautet.
Möglicher Wert: list
Ja
usage Objekt Die Nutzungsinformationen für die Anforderung. Ja
└– prompt_tokens integer Die Anzahl der vom Prompt verwendeten Token. Nein
└─ total_tokens integer Die Gesamtanzahl der von der Anforderung verwendeten Token. Nein

OpenAI.CreateEvalItem

Eine Chatnachricht, aus der der "Prompt" oder der Kontext besteht. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder OpenAI.EvalItemContent Texteingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Ja
Rolle (role) enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder
developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
Typ enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Nein

OpenAI.CreateEvalRunRequest

Name Typ BESCHREIBUNG Erforderlich Standard
Datenquelle Objekt Ja
└– Typ OpenAI.EvalRunDataSourceType Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Name der Ausführung Nein

OpenAI.CreateFineTuningJobRequest

Gültige Modelle:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Typ BESCHREIBUNG Erforderlich Standard
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden.
Nein
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
Integrationen array Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Methode OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden
unterstützten Modelle verwenden.
Ja
Seed integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Schnur Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.

Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein Nichts
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Trainingsdaten enthält.

Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei.

Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.

Je nachdem, ob das Modell den Chat verwendet, oder ob die Feinabstimmungsmethode das Format Vorlieben verwendet, sollte sich der Inhalt der Datei unterscheiden.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Ja
Validierungsdatei Schnur Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs-
Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der
Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.

Weitere Details finden Sie in der Feinabstimmungsanleitung.
Nein

OpenAI.CreateFineTuningJobRequestIntegration

Diskriminator für OpenAI.CreateFineTuningJobRequestIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Typ BESCHREIBUNG Erforderlich Standard
Typ string (siehe gültige Modelle unten) Ja

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: wandb
Ja
wandb Objekt Ja
└– Entität Schnur Nein
└– Name Schnur Nein
└- Projekt Schnur Nein
└- Tags array Nein

OpenAI.CreateVectorStoreFileBatchRequest

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-IDs array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja

OpenAI.CreateVectorStoreFileRequest

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Nein
Datei-ID Schnur Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja

OpenAI.CreateVectorStoreRequest

Name Typ BESCHREIBUNG Erforderlich Standard
chunking_strategy Objekt Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400. Nein
└– statisch OpenAI.StaticChunkingStrategy Nein
└– Typ enum Immer static.
Möglicher Wert: static
Nein
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
Datei-IDs array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Der Name des Vektorspeichers. Nein

OpenAI.DeleteFileResponse

Name Typ BESCHREIBUNG Erforderlich Standard
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: file
Ja

OpenAI.DeleteVectorStoreFileResponse

Name Typ BESCHREIBUNG Erforderlich Standard
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: vector_store.file.deleted
Ja

OpenAI.DeleteVectorStoreResponse

Name Typ BESCHREIBUNG Erforderlich Standard
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: vector_store.deleted
Ja

OpenAI.Embedding

Stellt einen Einbettungsvektor dar, der vom Einbettungsendpunkt zurückgegeben wird.

Name Typ BESCHREIBUNG Erforderlich Standard
embedding Array oder Zeichenfolge Ja
index integer Der Index der Einbettung in der Liste der Einbettungen Ja
Objekt enum Der Objekttyp, der immer „embedding“ ist.
Möglicher Wert: embedding
Ja

OpenAI.Eval

Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Beispiel:

  • Verbessern der Qualität meines Chatbots
  • Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
  • Überprüfen Sie, ob o4-mini bei meinem Anwendungsfall besser ist als gpt-4o
Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. Ja
Datenquellenkonfiguration Objekt Ja
└– Typ OpenAI.EvalDataSourceConfigType Nein
id Schnur Eindeutiger Bezeichner für die Auswertung. Ja
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
name Schnur Der Name der Auswertung. Ja
Objekt enum Der Objekttyp.
Möglicher Wert: eval
Ja
Testkriterien array Eine Liste der Testkriterien. Ja Nichts

OpenAI.EvalApiError

Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja

OpenAI.EvalCompletionsRunDataSourceParams

Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabenachrichten Objekt Nein
└─ item_reference Schnur Ein Verweis auf eine Variable im Namespace item. d.h., „item.input_trajectory“ Nein
└- Vorlage array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Nein
└– Typ enum Der Typ der Eingabemeldungen. Immer item_reference.
Möglicher Wert: item_reference
Nein
Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
Parameter für Stichprobennahme AzureEvalAPICompletionsSamplingParams Nein
Quelle Objekt Ja
└– Inhalt array Der Inhalt der JSONL-Datei. Nein
└─ created_after integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. Nein
└─ created_before integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. Nein
└─ id Schnur Der Bezeichner der Datei. Nein
└– Grenzwert integer Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Ein optionales Modell, nach dem gefiltert wird (z. B. "gpt-4o"). Nein
└– Typ enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Nein
Typ enum Der Typ der Ausführungsdatenquelle. Immer completions.
Möglicher Wert: completions
Ja

OpenAI.EvalCustomDataSourceConfigParams

Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird. Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ BESCHREIBUNG Erforderlich Standard
Beispielschema einfügen boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein Falsch
Artikel-Schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Ja
Typ enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.EvalCustomDataSourceConfigResource

Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt. Das Antwortschema definiert die Form der Daten, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ BESCHREIBUNG Erforderlich Standard
schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
Typ enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.EvalDataSourceConfigParams

Diskriminator für OpenAI.EvalDataSourceConfigParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.EvalDataSourceConfigType Ja

OpenAI.EvalDataSourceConfigResource

Diskriminator für OpenAI.EvalDataSourceConfigResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.EvalDataSourceConfigType Ja

OpenAI.EvalDataSourceConfigType

Eigentum Wert
Typ Schnur
Werte custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Ja
Bezeichnungen array Die Bezeichnungen, die verwendet werden, um jedes Element in der Auswertung zu klassifizieren. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
name Schnur Name des Bewerters (Graders) Ja
passing_labels array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.EvalGraderLabelModelResource

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe array Ja
Bezeichnungen array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
name Schnur Name des Bewerters (Graders) Ja
passing_labels array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.EvalGraderParams

Diskriminator für OpenAI.EvalGraderParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.GraderType Ja

OpenAI.EvalGraderPythonParams

Name Typ BESCHREIBUNG Erforderlich Standard
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
Quelle Schnur Der Quellcode des Python-Skripts. Ja
Typ enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.EvalGraderPythonResource

Name Typ BESCHREIBUNG Erforderlich Standard
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
Quelle Schnur Der Quellcode des Python-Skripts. Ja
Typ enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.EvalGraderResource

Diskriminator für OpenAI.EvalGraderResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.GraderType Ja

OpenAI.EvalGraderScoreModelParams

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
range array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Die Samplingparameter für das Modell. Nein
Typ enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.EvalGraderScoreModelResource

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
range array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Die Samplingparameter für das Modell. Nein
Typ enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.EvalGraderStringCheckParams

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Typ enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.EvalGraderTextSimilarityParams

Name Typ BESCHREIBUNG Erforderlich Standard
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Ja
Referenz Schnur Der Text, für die Bewertung. Ja
Typ enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.EvalGraderTextSimilarityResource

Name Typ BESCHREIBUNG Erforderlich Standard
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Ja
Referenz Schnur Der Text, für die Bewertung. Ja
Typ enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.EvalItem

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Objekt Ja
└– Typ OpenAI.EvalItemContentType Nein
Rolle (role) enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder
developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
Typ enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Nein

OpenAI.EvalItemContent

Diskriminator für OpenAI.EvalItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.EvalItemContentType Ja

OpenAI.EvalItemContentInputText

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Ja
Typ enum
Möglicher Wert: input_text
Ja

OpenAI.EvalItemContentOutputText

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Ja
Typ enum
Möglicher Wert: output_text
Ja

OpenAI.EvalItemContentType

Eigentum Wert
Typ Schnur
Werte input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht.

Name Typ BESCHREIBUNG Erforderlich Standard
Quelle Objekt Ja
└– Inhalt array Der Inhalt der JSONL-Datei. Nein
└─ id Schnur Der Bezeichner der Datei. Nein
└– Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Nein
Typ enum Der Typ der Datenquelle. Immer jsonl.
Möglicher Wert: jsonl
Ja

OpenAI.EvalList

Ein Objekt, das eine Liste von Evals darstellt.

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ein Array von Eval-Objekten. Ja
first_id Schnur Der Bezeichner der ersten Auswertung im Datenarray. Ja
has_more boolean Gibt an, ob weitere Evals verfügbar sind. Ja
last_id Schnur Der Bezeichner der letzten Auswertung im Datenarray. Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalLogsDataSourceConfigParams

Eine Datenquellenkonfiguration, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Typ enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.EvalLogsDataSourceConfigResource

Eine LogsDataSourceConfig, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Evals verfügbar sind. item und sample sind bei dieser Datenquellenkonfiguration beide definiert.

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
Typ enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.EvalResponsesRunDataSourceParams

Ein ResponsesRunDataSource-Objekt, das die Konfiguration einer Modellstichprobenentnahme beschreibt.

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabenachrichten Objekt Nein
└─ item_reference Schnur Ein Verweis auf eine Variable im Namespace item. d. h. „item.name“ Nein
└- Vorlage array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Nein
└– Typ enum Der Typ der Eingabemeldungen. Immer item_reference.
Möglicher Wert: item_reference
Nein
Modell Schnur Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). Nein
Parameter für Stichprobennahme AzureEvalAPIResponseSamplingParams Nein
Quelle Objekt Ja
└– Inhalt array Der Inhalt der JSONL-Datei. Nein
└─ created_after integer Nur Elemente einschließen, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└─ created_before integer Nur Elemente einschließen, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└─ id Schnur Der Bezeichner der Datei. Nein
└– instructions_search Schnur Optionale Zeichenfolge zum Durchsuchen des Felds „instructions“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└─ Modell Schnur Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└─ reasoning_effort OpenAI.ReasoningEffort Optionaler Parameter „Begründungsaufwand“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– Temperatur number Die Temperatur für die Stichprobenentnahme. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└- Werkzeuge array Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– top_p number Kernstichprobenentnahmeparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
└– Typ enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Nein
└– Benutzer array Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Typ enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja

OpenAI.EvalRun

Ein Schema, das eine Auswertungsausführung darstellt.

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Ja
Datenquelle Objekt Ja
└– Typ OpenAI.EvalRunDataSourceType Nein
Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
eval_id Schnur Bezeichner der zugeordneten Auswertung Ja
id Schnur Eindeutiger Bezeichner für die Auswertungsausführung Ja
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Modell Schnur Das Modell, das ausgewertet wird, falls zutreffend. Ja
name Schnur Name der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run“
Möglicher Wert: eval.run
Ja
pro_Modell_Nutzung array Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. Ja
Ergebnisse_pro_Testkriterien array Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. Ja
report_url Schnur URL zum gerenderten Bericht der Auswertungsausführung im Dashboard auf der Benutzeroberfläche Ja
Ergebnisanzahl Objekt Indikatoren, die die Ergebnisse der Auswertungsausführung zusammenfassen. Ja
└– fehler integer Anzahl der Ausgabeelemente, die zu einem Fehler geführt haben. Nein
└– fehlgeschlagen integer Anzahl der Ausgabeelemente, die die Auswertung nicht bestanden haben. Nein
└─ passed integer Anzahl der Ausgabeelemente, die die Auswertung bestanden haben. Nein
└– Gesamtsumme integer Gesamtanzahl der ausgeführten Ausgabeelemente. Nein
status Schnur Status der Auswertungsausführung Ja

OpenAI.EvalRunDataContentSource

Diskriminator für OpenAI.EvalRunDataContentSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.EvalRunDataContentSourceType Ja

OpenAI.EvalRunDataContentSourceType

Eigentum Wert
Typ Schnur
Werte file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: completions
Ja

OpenAI.EvalRunDataSourceJsonlResource

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: jsonl
Ja

OpenAI.EvalRunDataSourceParams

Diskriminator für OpenAI.EvalRunDataSourceParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.EvalRunDataSourceType Ja

OpenAI.EvalRunDataSourceResource

Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.EvalRunDataSourceType Ja

OpenAI.EvalRunDataSourceResponsesResource

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: responses
Ja

OpenAI.EvalRunDataSourceType

Eigentum Wert
Typ Schnur
Werte jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt der JSONL-Datei. Ja
Typ enum Der Typ der JSONL-Quelle. Immer file_content.
Möglicher Wert: file_content
Ja

OpenAI.EvalRunFileIdDataContentSource

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Der Bezeichner der Datei. Ja
Typ enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Ja

OpenAI.EvalRunList

Objekt, das eine Liste der Ausführungen einer Auswertung darstellt

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Array von Objekten der Auswertungsausführung Ja
first_id Schnur Der Bezeichner des ersten Eval-Vorgangs im Datenarray. Ja
has_more boolean Gibt an, ob weitere Evals verfügbar sind. Ja
last_id Schnur Bezeichner der letzten Auswertungsausführung im Datenarray Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalRunOutputItem

Ein Schema, das ein Ausgabeelement einer Auswertungsausführung darstellt.

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Ja
Datenquellenobjekt Objekt Details zum Datenquellelement der Eingabe Ja
datasource_item_id integer Der Bezeichner für das Datenquellenelement. Ja
eval_id Schnur Der Bezeichner der Auswertungsgruppe. Ja
id Schnur Eindeutiger Bezeichner für das Ausgabeelement der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run.output_item“
Möglicher Wert: eval.run.output_item
Ja
Ergebnisse array Eine Liste der Ergebnisse aus der Auswertungsausführung. Ja
run_id Schnur Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. Ja
Beispiel Objekt Ein Beispiel, das die Eingabe und Ausgabe des Auswertungslaufs enthält. Ja
└– Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Nein
└─ finish_reason Schnur Der Grund, warum die Beispielgenerierung abgeschlossen wurde. Nein
└– Eingabe array Ein Array von Eingabemeldungen. Nein
└─ max_completion_tokens integer Die maximale Anzahl von Token, die für die Fertigstellung verwendet werden dürfen. Nein
└─ Modell Schnur Das Modell, das zum Generieren des Beispiels verwendet wird. Nein
└─ output array Ein Array von Ausgabemeldungen. Nein
└─ seed integer Der zum Generieren der Stichprobe verwendete Seed Nein
└– Temperatur number Die verwendete Probenahmetemperatur. Nein
└– top_p number Der top_p Wert, der für das Sampling verwendet wird. Nein
└– Nutzung Objekt Details zur Nutzung von Tokens für das Beispiel. Nein
└– zwischengespeicherte_Token integer Die Anzahl der Token, die aus dem Cache abgerufen wurden. Nein
└─ completion_tokens integer Die Anzahl der generierten Abschlusstoken. Nein
└– prompt_tokens integer Die Anzahl der verwendeten Prompt-Token. Nein
└─ total_tokens integer Die Gesamtzahl der verwendeten Token. Nein
status Schnur Status der Auswertungsausführung Ja

OpenAI.EvalRunOutputItemList

Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Array von Ausgabeelementobjekten einer Auswertungsausführung Ja
first_id Schnur Bezeichner des ersten Ausgabeelements einer Auswertungsausführung im Datenarray Ja
has_more boolean Gibt an, ob weitere Ausgabeelemente für die Auswertungsausführung verfügbar sind Ja
last_id Schnur Der Bezeichner des letzten Ausgabeelements des Eval-Durchlaufs im Datenarray. Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalRunResponsesDataContentSource

Ein EvalResponsesSource-Objekt, das die Datenquellenkonfiguration einer Ausführung beschreibt.

Name Typ BESCHREIBUNG Erforderlich Standard
created_after integer Nur Elemente einschließen, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
erstellt_vor integer Nur Elemente einschließen, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
instructions_search Schnur Optionale Zeichenfolge zum Durchsuchen des Felds „instructions“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Modell Schnur Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Denkanstrengung Objekt nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
Temperatur number Die Temperatur für die Stichprobenentnahme. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Werkzeuge array Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
top_p number Kernstichprobenentnahmeparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein
Typ enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja
Nutzer array Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. Nein

OpenAI.EvalRunStoredCompletionsDataContentSource

Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt

Name Typ BESCHREIBUNG Erforderlich Standard
created_after integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. Nein
erstellt_vor integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. Nein
limit integer Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Modell Schnur Ein optionales Modell, nach dem gefiltert wird (z. B. "gpt-4o"). Nein
Typ enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
Typ enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
Typ enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Typ BESCHREIBUNG Erforderlich Standard
filters Objekt Nein
max_anzahl_ergebnisse integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Nein
Ranglistenoptionen Objekt Nein
└– Ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
Nein
└─ Punktschwelle number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein
Typ enum Der Typ des Dateisuchtools. Immer file_search.
Möglicher Wert: file_search
Ja
vector_store_ids array Die IDs der zu durchsuchenden Vektorspeicher. Ja

OpenAI.FileSearchToolCallItemParam

Die Ergebnisse eines Aufrufs des Dateisuchtools.

Name Typ BESCHREIBUNG Erforderlich Standard
queries array Die zum Suchen nach Dateien verwendeten Abfragen. Ja
Ergebnisse array Die Ergebnisse des Aufrufs des Dateisuchtools. Nein
Typ enum
Möglicher Wert: file_search_call
Ja

OpenAI.FileSearchToolCallItemResource

Die Ergebnisse eines Aufrufs des Dateisuchtools.

Name Typ BESCHREIBUNG Erforderlich Standard
queries array Die zum Suchen nach Dateien verwendeten Abfragen. Ja
Ergebnisse array Die Ergebnisse des Aufrufs des Dateisuchtools. Nein
status enum Der Status des Aufrufs des Dateisuchtools. in_progress,
searching, incomplete oder failed,
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
Typ enum
Möglicher Wert: file_search_call
Ja

OpenAI.Filters

Name Typ BESCHREIBUNG Erforderlich Standard
filters array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
Typ enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja
value Zeichenfolge oder Zahl oder boolescher Wert Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Ja

OpenAI.FineTuneDPOHyperparameters

Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.

Name Typ BESCHREIBUNG Erforderlich Standard
Batch-Größe enum
Möglicher Wert: auto
Nein
Beta enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein

OpenAI.FineTuneDPOMethod

Konfiguration für die DPO-Feinabstimmungsmethode.

Name Typ BESCHREIBUNG Erforderlich Standard
Hyperparameter OpenAI.FineTuneDPOHyperparameters Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuneMethod

Die Methode, die für die Feinabstimmung verwendet wird.

Name Typ BESCHREIBUNG Erforderlich Standard
dpo OpenAI.FineTuneDPOMethod Konfiguration für die DPO-Feinabstimmungsmethode. Nein
Verstärkung AzureFineTuneReinforcementMethod Nein
Überwacht OpenAI.FineTuneSupervisedMethod Konfiguration für die überwachte Feinabstimmungsmethode. Nein
Typ enum Der Typ der Methode. Ist entweder supervised, dpo oder reinforcement.
Mögliche Werte: supervised, , dporeinforcement
Ja

OpenAI.FineTuneReinforcementHyperparameters

Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter.

Name Typ BESCHREIBUNG Erforderlich Standard
Batch-Größe enum
Möglicher Wert: auto
Nein
compute_multiplier enum
Möglicher Wert: auto
Nein
eval_interval enum
Möglicher Wert: auto
Nein
eval_samples enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein
Denkanstrengung enum Ebene des Begründungsaufwands.
Mögliche Werte: default, , low, mediumhigh
Nein

OpenAI.FineTuneSupervisedHyperparameters

Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.

Name Typ BESCHREIBUNG Erforderlich Standard
Batch-Größe enum
Möglicher Wert: auto
Nein
Lernratenmultiplikator enum
Möglicher Wert: auto
Nein
n_epochs enum
Möglicher Wert: auto
Nein

OpenAI.FineTuneSupervisedMethod

Konfiguration für die überwachte Feinabstimmungsmethode.

Name Typ BESCHREIBUNG Erforderlich Standard
Hyperparameter OpenAI.FineTuneSupervisedHyperparameters Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuningIntegration

Diskriminator für OpenAI.FineTuningIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Typ BESCHREIBUNG Erforderlich Standard
Typ string (siehe gültige Modelle unten) Ja

OpenAI.FineTuningIntegrationWandb

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird
Möglicher Wert: wandb
Ja
wandb Objekt Die Einstellungen für Ihre Integration mit Gewichtungen und Trends. Diese Nutzdaten geben das Projekt an, zu dem
Metriken gesendet werden. Optional können Sie einen expliziten Anzeigenamen für Ihre Ausführung festlegen, Tags hinzufügen
zu Ihrer Ausführung, und eine Standardentität (Team, Benutzername usw.) festlegen, die Ihrer Ausführung zugeordnet werden soll.
Ja
└– Entität Schnur Die Entität, die für die Ausführung verwendet werden soll. Auf diese Weise können Sie das Team oder den Benutzernamen des WandB-Benutzers festlegen, den Sie
mit der Ausführung verknüpft haben möchten. Wenn nicht festgelegt, wird die Standardentität für den registrierten WandB-API-Schlüssel verwendet.
Nein
└– Name Schnur Ein Anzeigename, der für die Ausführung festgelegt werden soll. Wenn nicht festgelegt, verwenden wir die Auftrags-ID als Namen. Nein
└- Projekt Schnur Der Name des Projekts, unter dem die neue Ausführung erstellt wird. Nein
└- Tags array Eine Liste der Tags, die der neu erstellten Ausführung angefügt werden sollen. Diese Tags werden direkt an WandB weitergeleitet. Einige
Standardtags werden von OpenAI generiert: „openai/finetune“, „openai/{base-model}“, „openai/{ftjob-abcdef}“.
Nein

OpenAI.FineTuningJob

Das Objekt fine_tuning.job stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Fehler Objekt Bei Feinabstimmungsaufträgen mit Status failed, wird dies weitere Informationen zur Ursache des Fehlers enthalten. Ja
└– Code Schnur Ein computerlesbarer Fehlercode. Nein
└– Nachricht Schnur Eine für Menschen lesbare Fehlermeldung. Nein
└- param Schnur Der Parameter, der ungültig war, in der Regel training_file oder validation_file. Dieses Feld ist null, wenn der Fehler nicht parameterspezifisch war. Nein
geschätzte Fertigstellung integer Unix-Zeitstempel (in Sekunden) für die Vervollständigung des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Feinabstimmungsauftrag nicht ausgeführt wird. Nein
fine_tuned_model Schnur Der Name des fein abgestimmten Modells, das erstellt wird. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
finished_at integer Der Unix-Zeitstempel (in Sekunden) für den Abschlusszeitpunkt des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
Hyperparameter Objekt Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert wird nur zurückgegeben, wenn supervised Aufträge ausgeführt werden. Ja
└- batch_size enum
Möglicher Wert: auto
Nein
└– Lernraten-Multiplikator enum
Möglicher Wert: auto
Nein
└– n_epochs enum
Möglicher Wert: auto
Nein
id Schnur Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Integrationen array Eine Liste der Integrationen, die für diesen Feinabstimmungsauftrag aktiviert werden sollen. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Methode OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell Schnur Das Basismodell, das fein abgestimmt wird. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job“ ist.
Möglicher Wert: fine_tuning.job
Ja
organization_id Schnur Die Organisation, die den Feinabstimmungsauftrag besitzt. Ja
Ergebnisdateien array Die kompilierten Ergebnisdatei-ID(s) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. Ja
Seed integer Der für den Optimierungsauftrag verwendete Seed Ja
status enum Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, queued, running, succeeded, failed oder cancelled sein kann.
Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled
Ja
trainierte Token integer Die Gesamtzahl der verrechenbaren Tokens, die durch diesen Feinabstimmungsauftrag verarbeitet wurden. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. Ja
Trainingsdatei Schnur Die Datei-ID, die für das Training verwendet wird. Sie können die Trainingsdaten mit der Datein-API abrufen. Ja
user_provided_suffix Schnur Das beschreibende Suffix, das auf den Auftrag angewendet wurde, wie in der Auftragserstellungsanforderung angegeben. Nein
Validierungsdatei Schnur Die zur Überprüfung verwendete Datei-ID. Sie können die Überprüfungsergebnisse mit der Datein-API abrufen. Ja

OpenAI.FineTuningJobCheckpoint

Das Objekt fine_tuning.job.checkpoint stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. Ja
fine_tuned_model_checkpoint Schnur Der Name des erstellten fein abgestimmten Prüfpunktmodells. Ja
fine_tuning_job_id Schnur Name des Optimierungsauftrags, aus dem dieser Prüfpunkt erstellt wurde Ja
id Schnur Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Metriken Objekt Metriken bei der Schrittnummer während des Feinabstimmungsauftrags. Ja
└─ full_valid_loss number Nein
└─ full_valid_mean_token_accuracy number Nein
└– Schritt number Nein
└– train_loss number Nein
└─ train_mean_token_accuracy number Nein
└─ valid_loss number Nein
└– valid_mean_token_accuracy number Nein
Objekt enum Der Objekttyp, der immer „fine_tuning.job.checkpoint“ ist.
Möglicher Wert: fine_tuning.job.checkpoint
Ja
Schrittnummer integer Die Schrittnummer, bei der der Prüfpunkt erstellt wurde. Ja

OpenAI.FineTuningJobEvent

Ereignisobjekt des Feinabstimmungsauftrags

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Daten Die dem Ereignis zugeordneten Daten. Nein
id Schnur Der Objektbezeichner. Ja
level enum Der Protokolliergrad des Ereignisses.
Mögliche Werte: info, , warnerror
Ja
Nachricht Schnur Die Meldung des Ereignisses. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job.event“ ist.
Möglicher Wert: fine_tuning.job.event
Ja
Typ enum Den Typ des Ereignisses
Mögliche Werte: message, metrics
Nein

OpenAI.FunctionObject

Name Typ BESCHREIBUNG Erforderlich Standard
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
Parameter Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. Erfahren Sie mehr über strukturierte Ausgaben im Funktionsaufrufhandbuch. Nein Falsch

OpenAI.FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann. Erfahren Sie mehr über den Funktionsaufruf.

Name Typ BESCHREIBUNG Erforderlich Standard
Beschreibung Schnur Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. Nein
name Schnur Der Name der aufzurufenden Funktion. Ja
Parameter Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. Ja
strict boolean Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standardwert: true. Ja
Typ enum Der Typ des Funktionstools. Immer function.
Möglicher Wert: function
Ja

OpenAI.FunctionToolCallItemParam

Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie in der Funktionsaufrufanleitung.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
name Schnur Der Name der auszuführenden Funktion. Ja
Typ enum
Möglicher Wert: function_call
Ja

OpenAI.FunctionToolCallItemResource

Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie in der Funktionsaufrufanleitung.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
name Schnur Der Name der auszuführenden Funktion. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum
Möglicher Wert: function_call
Ja

OpenAI.FunctionToolCallOutputItemParam

Die Ausgabe eines Funktionstoolaufrufs

Name Typ BESCHREIBUNG Erforderlich Standard
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. Ja
Typ enum
Möglicher Wert: function_call_output
Ja

OpenAI.FunctionToolCallOutputItemResource

Die Ausgabe eines Funktionstoolaufrufs

Name Typ BESCHREIBUNG Erforderlich Standard
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum
Möglicher Wert: function_call_output
Ja

OpenAI.Grader

Diskriminator für OpenAI.Grader

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.GraderType Ja

OpenAI.GraderLabelModel

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe array Ja
Bezeichnungen array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
name Schnur Name des Bewerters (Graders) Ja
passing_labels array Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
Typ enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.GraderMulti

Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Bewerter, um eine einzelne Bewertung zu erzeugen.

Name Typ BESCHREIBUNG Erforderlich Standard
calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Ja
Bewerter Objekt Ja
name Schnur Name des Bewerters (Graders) Ja
Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Ja

OpenAI.GraderPython

Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.

Name Typ BESCHREIBUNG Erforderlich Standard
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
name Schnur Name des Bewerters (Graders) Ja
Quelle Schnur Der Quellcode des Python-Skripts. Ja
Typ enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.GraderScoreModel

Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
name Schnur Name des Bewerters (Graders) Ja
range array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme Die Samplingparameter für das Modell. Nein
Typ enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.GraderStringCheck

Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.

Name Typ BESCHREIBUNG Erforderlich Standard
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Typ enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.GraderTextSimilarity

Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.

Name Typ BESCHREIBUNG Erforderlich Standard
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
name Schnur Name des Bewerters (Graders) Ja
Referenz Schnur Der Text, für die Bewertung. Ja
Typ enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.GraderType

Eigentum Wert
Typ Schnur
Werte string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Ein Tool, das Bilder mithilfe eines Modells wie gpt-image-1-Serie generiert.

Name Typ BESCHREIBUNG Erforderlich Standard
background enum Hintergrundtyp für das generierte Bild. transparent,
opaque oder auto. Standardwert: auto.
Mögliche Werte: transparent, , opaqueauto
Nein
input_image_mask Objekt Optionale Maske für die Bildbearbeitung. Enthält image_url
(Zeichenfolge, optional) und file_id (Zeichenfolge, optional).
Nein
└– file_id Schnur Datei-ID für das Maskenbild. Nein
└– image_url Schnur Base64-codiertes Maskenbild. Nein
Modell enum Das zu verwendende Modell der Bildgenerierung. Standardwert: gpt-image-1.
Möglicher Wert: gpt-image-1
Nein
moderation enum Moderationsebene für das generierte Bild. Standardwert: auto.
Mögliche Werte: auto, low
Nein
Ausgabekomprimierung integer Komprimierungsebene für das Ausgabebild. Standardwert: 100. Nein 100
Ausgabeformat enum Das Ausgabeformat des generierten Bilds. Einer von png, , webpoder
jpeg. Standardwert: png.
Mögliche Werte: png, , webpjpeg
Nein
unvollständige Bilder integer Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. Nein 0
quality enum Die Qualität des generierten Bilds. Einer der folgenden Werte: low, medium, high,
oder auto. Standardwert: auto.
Mögliche Werte: low, , medium, highauto
Nein
Größe enum Die Größe des generierten Bilds. Einer der folgenden Werte: 1024x1024, 1024x1536,
1536x1024 oder auto. Standardwert: auto.
Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto
Nein
Typ enum Der Typ des Tools zur Bildgenerierung. Immer image_generation.
Möglicher Wert: image_generation
Ja

OpenAI.ImageGenToolCallItemParam

Eine vom Modell durchgeführte Anforderung zur Bildgenerierung.

Name Typ BESCHREIBUNG Erforderlich Standard
Ergebnis Schnur Das generierte Bild, das in base64 codiert ist. Ja
Typ enum
Möglicher Wert: image_generation_call
Ja

OpenAI.ImageGenToolCallItemResource

Eine vom Modell durchgeführte Anforderung zur Bildgenerierung.

Name Typ BESCHREIBUNG Erforderlich Standard
Ergebnis Schnur Das generierte Bild, das in base64 codiert ist. Ja
status enum
Mögliche Werte: in_progress, , completed, generatingfailed
Ja
Typ enum
Möglicher Wert: image_generation_call
Ja

OpenAI.ImplicitUserMessage

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt Zeichenfolge oder Array Ja

OpenAI.Includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
  • computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Eigentum Wert
Beschreibung Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit
unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung
in den Aufrufelementen des Code-Interpreter-Tools.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs.
- file_search_call.results: Fügen Sie die Suchergebnisse ein
des Aufrufs des Dateisuchtools.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-
Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in
mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B.
wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt ist
für das Null-Datenaufbewahrungsprogramm registriert).
Typ Schnur
Werte code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Diskriminator für OpenAI.ItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ItemContentType Multimodaler Eingabe- und Ausgabeinhalt. Ja

OpenAI.ItemContentInputAudio

Eine Audioeingabe für das Modell.

Name Typ BESCHREIBUNG Erforderlich Standard
Daten Schnur Base64-codierte Audiodaten. Ja
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und
wav.
Mögliche Werte: mp3, wav
Ja
Typ enum Der Typ des Eingabeelements. Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.ItemContentInputFile

Eine Dateieingabe für das Modell.

Name Typ BESCHREIBUNG Erforderlich Standard
file_data Schnur Der Inhalt der Datei, die an das Modell gesendet werden soll. Nein
Datei-ID Schnur Die ID der Datei, die an das Modell gesendet werden soll. Nein
Dateiname Schnur Der Name der Datei, die an das Modell gesendet werden soll. Nein
Typ enum Der Typ des Eingabeelements. Immer input_file.
Möglicher Wert: input_file
Ja

OpenAI.ItemContentInputImage

Eine Bildeingabe für das Modell.

Name Typ BESCHREIBUNG Erforderlich Standard
detail enum Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low oder auto. Wird standardmäßig auf auto festgelegt.
Mögliche Werte: low, , highauto
Nein
Datei-ID Schnur Die ID der Datei, die an das Modell gesendet werden soll. Nein
image_url Schnur Die URL des Bilds, das an das Modell gesendet werden soll. Eine vollqualifizierte URL oder ein vollqualifiziertes base64-codiertes Bild in einer Daten-URL. Nein
Typ enum Der Typ des Eingabeelements. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.ItemContentInputText

Eine Texteingabe für das Modell.

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Die Texteingabe für das Modell. Ja
Typ enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.ItemContentOutputAudio

Eine Audioausgabe aus dem Modell.

Name Typ BESCHREIBUNG Erforderlich Standard
Daten Schnur Base64-codierte Audiodaten aus dem Modell. Ja
Transkript Schnur Die Transkription der Audiodaten aus dem Modell. Ja
Typ enum Der Typ des Ausgabeaudios. Immer output_audio.
Möglicher Wert: output_audio
Ja

OpenAI.ItemContentOutputText

Eine Textausgabe aus dem Modell.

Name Typ BESCHREIBUNG Erforderlich Standard
Anmerkungen array Die Anmerkungen der Textausgabe Ja
logprobs array Nein
Text Schnur Die Textausgabe aus dem Modell. Ja
Typ enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.ItemContentRefusal

Eine Ablehnung des Modells

Name Typ BESCHREIBUNG Erforderlich Standard
Ablehnung Schnur Die Erklärung der Ablehnung aus dem Modell. Ja
Typ enum Die Art der Ablehnung. Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.ItemContentType

Multimodaler Eingabe- und Ausgabeinhalt.

Eigentum Wert
Beschreibung Multimodaler Eingabe- und Ausgabeinhalt.
Typ Schnur
Werte input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ItemType Ja

OpenAI.ItemReferenceItemParam

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Die vom Dienst stammende ID des zuvor generierten Antwortelements, auf das verwiesen wird. Ja
Typ enum
Möglicher Wert: item_reference
Ja

OpenAI.ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Ja
Typ OpenAI.ItemType Ja

OpenAI.ItemType

Eigentum Wert
Typ Schnur
Werte message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
first_id Schnur Nein
has_more boolean Ja
last_id Schnur Nein
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListFineTuningJobEventsResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListModelsResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListPaginatedFineTuningJobsResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListVectorStoreFilesFilter

Eigentum Wert
Typ Schnur
Werte in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListVectorStoresResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.LocalShellExecAction

Führen Sie einen Shellbefehl auf dem Server aus.

Name Typ BESCHREIBUNG Erforderlich Standard
command array Der auszuführende Befehl. Ja
env Objekt Umgebungsvariablen, die für den Befehl festgelegt werden sollen. Ja
timeout_ms integer Optionales Zeitlimit in Millisekunden für den Befehl. Nein
Typ enum Der Typ der lokalen Shellaktion. Immer exec.
Möglicher Wert: exec
Ja
user Schnur Optionaler Benutzer, als welcher der Befehl ausgeführt werden soll. Nein
working_directory Schnur Optionales Arbeitsverzeichnis, in dem der Befehl ausgeführt werden soll. Nein

OpenAI.LocalShellTool

Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des lokalen Shelltools. Immer local_shell.
Möglicher Wert: local_shell
Ja

OpenAI.LocalShellToolCallItemParam

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ BESCHREIBUNG Erforderlich Standard
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
Typ enum
Möglicher Wert: local_shell_call
Ja

OpenAI.LocalShellToolCallItemResource

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ BESCHREIBUNG Erforderlich Standard
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
status enum
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum
Möglicher Wert: local_shell_call
Ja

OpenAI.LocalShellToolCallOutputItemParam

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ BESCHREIBUNG Erforderlich Standard
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
Typ enum
Möglicher Wert: local_shell_call_output
Ja

OpenAI.LocalShellToolCallOutputItemResource

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ BESCHREIBUNG Erforderlich Standard
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
status enum
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum
Möglicher Wert: local_shell_call_output
Ja

OpenAI.Location

Diskriminator für OpenAI.Location

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
approximate OpenAI.ApproximateLocation
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.LocationType Ja

OpenAI.LocationType

Eigentum Wert
Typ Schnur
Werte approximate

OpenAI.LogProb

Die Protokollwahrscheinlichkeit eines Tokens.

Name Typ BESCHREIBUNG Erforderlich Standard
Byte array Ja
logprob number Ja
token Schnur Ja
top_logprobs array Ja

OpenAI.MCPApprovalRequestItemParam

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung stellt. Ja
Typ enum
Möglicher Wert: mcp_approval_request
Ja

OpenAI.MCPApprovalRequestItemResource

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung stellt. Ja
Typ enum
Möglicher Wert: mcp_approval_request
Ja

OpenAI.MCPApprovalResponseItemParam

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ BESCHREIBUNG Erforderlich Standard
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
approve boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
Grund Schnur Optionaler Grund für die Entscheidung. Nein
Typ enum
Möglicher Wert: mcp_approval_response
Ja

OpenAI.MCPApprovalResponseItemResource

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ BESCHREIBUNG Erforderlich Standard
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
approve boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
Grund Schnur Optionaler Grund für die Entscheidung. Nein
Typ enum
Möglicher Wert: mcp_approval_response
Ja

OpenAI.MCPCallItemParam

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Schnur Der Fehler des Toolaufrufs, falls vorhanden. Nein
name Schnur Der Name des Tools, das ausgeführt wurde. Ja
output Schnur Die Ausgabe vom Toolaufruf. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
Typ enum
Möglicher Wert: mcp_call
Ja

OpenAI.MCPCallItemResource

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Schnur Der Fehler des Toolaufrufs, falls vorhanden. Nein
name Schnur Der Name des Tools, das ausgeführt wurde. Ja
output Schnur Die Ausgabe vom Toolaufruf. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
Typ enum
Möglicher Wert: mcp_call
Ja

OpenAI.MCPListToolsItemParam

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ BESCHREIBUNG Erforderlich Standard
Fehler Schnur Fehlermeldung, wenn der Server keine Tools auflisten konnte. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge array Die auf dem Server verfügbaren Tools. Ja
Typ enum
Möglicher Wert: mcp_list_tools
Ja

OpenAI.MCPListToolsItemResource

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ BESCHREIBUNG Erforderlich Standard
Fehler Schnur Fehlermeldung, wenn der Server keine Tools auflisten konnte. Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge array Die auf dem Server verfügbaren Tools. Ja
Typ enum
Möglicher Wert: mcp_list_tools
Ja

OpenAI.MCPListToolsTool

Ein Tool, das auf einem MCP-Server verfügbar ist.

Name Typ BESCHREIBUNG Erforderlich Standard
Anmerkungen Zusätzliche Anmerkungen zum Tool. Nein
Beschreibung Schnur Die Beschreibung des Tools. Nein
input_schema Das JSON-Schema, das die Eingabe des Tools beschreibt. Ja
name Schnur Der Name des Tools. Ja

OpenAI.MCPTool

Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol).

Name Typ BESCHREIBUNG Erforderlich Standard
erlaubte_Werkzeuge Objekt Nein
└– tool_names array Liste der zulässigen Toolnamen. Nein
Überschriften Objekt Optionale HTTP-Header, die an den MCP-Server gesendet werden sollen. Verwendung für die Authentifizierung
oder andere Zwecke.
Nein
Genehmigung erforderlich Objekt (siehe unten für gültige Modelle) Geben Sie an, welche Tools des MCP-Servers eine Genehmigung erfordern. Nein
Serverbeschriftung Schnur Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. Ja
server_url Schnur Die URL für den MCP-Server. Ja
Typ enum Der Typ des MCP-Tools. Immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.MetadataPropertyForRequest

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein

OpenAI.Model

Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.

Name Typ BESCHREIBUNG Erforderlich Standard
created integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Modells. Ja
id Schnur Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer „model“ lautet.
Möglicher Wert: model
Ja
owned_by Schnur Die Organisation, die das Modell besitzt. Ja

OpenAI.OtherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Immer other.
Möglicher Wert: other
Ja

OpenAI.ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Typ: boolesch

OpenAI.Prompt

Verweisen Sie auf eine Promptvorlage und deren Variablen.

Name Typ BESCHREIBUNG Erforderlich Standard
id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Ja
variables Objekt Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
version Schnur Optionale Version der Promptvorlage. Nein

OpenAI.RankingOptions

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
Nein
score-threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein

OpenAI.Reasoning

nur Begründungsmodelle

Konfigurationsoptionen für Begründungsmodelle.

Name Typ BESCHREIBUNG Erforderlich Standard
Aufwand Objekt nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
generate_summary enum Veraltet. , verwenden Sie stattdessen summary.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein

OpenAI.ReasoningEffort

nur Begründungsmodelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

Eigentum Wert
Beschreibung nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Typ Schnur
Werte low
medium
high

OpenAI.ReasoningItemParam

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in Ihre input an die Antworten-API für die nächsten Gesprächsverläufe einzufügen, wenn Sie den Kontext manuell verwalten.

Name Typ BESCHREIBUNG Erforderlich Standard
encrypted_content Schnur Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort
mit reasoning.encrypted_content im Parameter include generiert wird.
Nein
summary array Inhalt des Begründungstexts. Ja
Typ enum
Möglicher Wert: reasoning
Ja

OpenAI.ReasoningItemResource

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in Ihre input an die Antworten-API für die nächsten Gesprächsverläufe einzufügen, wenn Sie den Kontext manuell verwalten.

Name Typ BESCHREIBUNG Erforderlich Standard
encrypted_content Schnur Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort
mit reasoning.encrypted_content im Parameter include generiert wird.
Nein
summary array Inhalt des Begründungstexts. Ja
Typ enum
Möglicher Wert: reasoning
Ja

OpenAI.ReasoningItemSummaryPart

Diskriminator für OpenAI.ReasoningItemSummaryPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ReasoningItemSummaryPartType Ja

OpenAI.ReasoningItemSummaryPartType

Eigentum Wert
Typ Schnur
Werte summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Typ BESCHREIBUNG Erforderlich Standard
Text Schnur Ja
Typ enum
Möglicher Wert: summary_text
Ja

OpenAI.Response

Name Typ BESCHREIBUNG Erforderlich Standard
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
erstellt_am integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
Fehler Objekt Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Ja
└– Code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
id Schnur Eindeutiger Bezeichner für diese Antwort Ja
incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Ja
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
instructions Zeichenfolge oder Array Ja
max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
output_text Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
previous_response_id Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
prompt Objekt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└─ id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Nein
└- Variablen OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem
Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere
Antworteingabetypen wie Bilder oder Dateien sein.
Nein
└─ version Schnur Optionale Version der Promptvorlage. Nein
Begründung Objekt nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└– Aufwand OpenAI.ReasoningEffort nur Begründungsmodelle

Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit werden die Werte low, medium und high unterstützt. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
Nein
└– generate_summary enum Veraltet. , verwenden Sie stattdessen summary.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
└– Zusammenfassung enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein:
Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells.
Einer von auto, concise oder detailed.
Mögliche Werte: auto, , concisedetailed
Nein
status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Ja
Text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
Toolauswahl Objekt Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines oder
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Nein
└– Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Nein
Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Ja
Kürzung enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
usage OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
user Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Ja

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeschnipsel vom Code-Interpreter gestreamt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
delta Schnur Der partielle Codeschnipsel, der vom Code-Interpreter gestreamt wird. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. Ja
Typ enum Typ des Ereignisses Immer response.code_interpreter_call_code.delta.
Möglicher Wert: response.code_interpreter_call_code.delta
Ja

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Wird ausgegeben, wenn der Codeschnipsel vom Code-Interpreter abgeschlossen wird.

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Die endgültige Codeschnipselausgabe des Code-Interpreters. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code abgeschlossen wird. Ja
Typ enum Typ des Ereignisses Immer response.code_interpreter_call_code.done.
Möglicher Wert: response.code_interpreter_call_code.done
Ja

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Wird ausgegeben, wenn der Aufruf des Code-Interpreters abgeschlossen wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters abgeschlossen wird. Ja
Typ enum Typ des Ereignisses Immer response.code_interpreter_call.completed.
Möglicher Wert: response.code_interpreter_call.completed
Ja

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Aufruf des Code-Interpreters in Bearbeitung ist.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters in Arbeit ist. Ja
Typ enum Typ des Ereignisses Immer response.code_interpreter_call.in_progress.
Möglicher Wert: response.code_interpreter_call.in_progress
Ja

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Code-Interpreter den Codeschnipsel aktiv interpretiert.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code-Interpreter Code interpretiert. Ja
Typ enum Typ des Ereignisses Immer response.code_interpreter_call.interpreting.
Möglicher Wert: response.code_interpreter_call.interpreting
Ja

OpenAI.ResponseCompletedEvent

Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└─ id Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
└─ max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└– Begründung OpenAI.Reasoning nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└─ status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└─ text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren
einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
└– top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└─ truncation enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Typ enum Typ des Ereignisses Immer response.completed.
Möglicher Wert: response.completed
Ja

OpenAI.ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des hinzugefügten Inhaltsteils. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
Teil Objekt Ja
└– Typ OpenAI.ItemContentType Multimodaler Eingabe- und Ausgabeinhalt. Nein
Typ enum Typ des Ereignisses Immer response.content_part.added.
Möglicher Wert: response.content_part.added
Ja

OpenAI.ResponseContentPartDoneEvent

Wird ausgegeben, wenn ein Inhaltsteil verarbeitet ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Inhaltsteils, der verarbeitet wurde. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
Teil Objekt Ja
└– Typ OpenAI.ItemContentType Multimodaler Eingabe- und Ausgabeinhalt. Nein
Typ enum Typ des Ereignisses Immer response.content_part.done.
Möglicher Wert: response.content_part.done
Ja

OpenAI.ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Typ BESCHREIBUNG Erforderlich Standard
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└─ id Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
└─ max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└– Begründung OpenAI.Reasoning nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└─ status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└─ text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren
einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
└– top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└─ truncation enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Typ enum Typ des Ereignisses Immer response.created.
Möglicher Wert: response.created
Ja

OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Typ BESCHREIBUNG Erforderlich Standard
code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Ja
Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Ja

OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

Eigentum Wert
Beschreibung Der Fehlercode für die Antwort.
Typ Schnur
Werte server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Typ BESCHREIBUNG Erforderlich Standard
code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja
param Schnur Der Fehlerparameter. Ja
Typ enum Typ des Ereignisses Immer error.
Möglicher Wert: error
Ja

OpenAI.ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Typ BESCHREIBUNG Erforderlich Standard
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└─ id Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
└─ max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└– Begründung OpenAI.Reasoning nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└─ status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└─ text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren
einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
└– top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└─ truncation enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Typ enum Typ des Ereignisses Immer response.failed.
Möglicher Wert: response.failed
Ja

OpenAI.ResponseFileSearchCallCompletedEvent

Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Die ID des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
output_index integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
Typ enum Typ des Ereignisses Immer response.file_search_call.completed.
Möglicher Wert: response.file_search_call.completed
Ja

OpenAI.ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Die ID des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
output_index integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
Typ enum Typ des Ereignisses Immer response.file_search_call.in_progress.
Möglicher Wert: response.file_search_call.in_progress
Ja

OpenAI.ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Die ID des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
output_index integer Der Index des Ausgabeelements, nach dem der Dateisuchaufruf sucht. Ja
Typ enum Typ des Ereignisses Immer response.file_search_call.searching.
Möglicher Wert: response.file_search_call.searching
Ja

OpenAI.ResponseFormat

Diskriminator für OpenAI.ResponseFormat

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Mögliche Werte: text, , json_objectjson_schema
Ja

OpenAI.ResponseFormatJsonObject

Antwortformat des JSON-Objekts. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung von json_schema wird für Modelle empfohlen, die dies unterstützen. Beachten Sie, dass das Modell keinen JSON-Code ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Ja

OpenAI.ResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu Strukturierten Ausgaben.

Name Typ BESCHREIBUNG Erforderlich Standard
JSON-Schema Objekt Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. Ja
└– Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell
bestimmt wird, wie im Format geantwortet werden soll.
Nein
└– Name Schnur Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder
Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen).
Nein
└- Schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Nein
└– streng boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema.
im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn
strict ist true Weitere Informationen finden Sie in im Leitfaden für strukturierte
Ausgaben
.
Nein Falsch
Typ enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.

Typ: Objekt

OpenAI.ResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Typ des zu definierenden Antwortformats. Immer text.
Möglicher Wert: text
Ja

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.

Name Typ BESCHREIBUNG Erforderlich Standard
delta Schnur Das hinzugefügte Argumentdelta des Funktionsaufrufs Ja
item_id Schnur Die ID des Ausgabeelements, dem das Delta der Funktionsaufrufargumente hinzugefügt wird. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird Ja
Typ enum Typ des Ereignisses Immer response.function_call_arguments.delta.
Möglicher Wert: response.function_call_arguments.delta
Ja

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Wird ausgegeben, wenn Funktionsaufrufargumente abgeschlossen werden.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Schnur Die Funktionsaufrufargumente. Ja
item_id Schnur Die ID des Elements. Ja
output_index integer Der Index des Ausgabeelements. Ja
Typ enum
Möglicher Wert: response.function_call_arguments.done
Ja

OpenAI.ResponseImageGenCallCompletedEvent

Wird ausgegeben, wenn ein Aufruf des Bildgenerierungstools abgeschlossen ist und das endgültige Bild verfügbar ist.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.image_generation_call.completed”.
Möglicher Wert: response.image_generation_call.completed
Ja

OpenAI.ResponseImageGenCallGeneratingEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild generiert (Zwischenzustand).

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.image_generation_call.generating.
Möglicher Wert: response.image_generation_call.generating
Ja

OpenAI.ResponseImageGenCallInProgressEvent

Wird ausgegeben, wenn ein Aufruf des Bildgenerierungstools ausgeführt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.image_generation_call.in_progress”.
Möglicher Wert: response.image_generation_call.in_progress
Ja

OpenAI.ResponseImageGenCallPartialImageEvent

Wird ausgegeben, wenn ein Teilbild während des Streamings der Bildgenerierung verfügbar ist.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
partial_image_b64 Schnur Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. Ja
partial_image_index integer 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). Ja
Typ enum Typ des Ereignisses Immer „response.image_generation_call.partial_image”.
Möglicher Wert: response.image_generation_call.partial_image
Ja

OpenAI.ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.

Name Typ BESCHREIBUNG Erforderlich Standard
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└─ id Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
└─ max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└– Begründung OpenAI.Reasoning nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└─ status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└─ text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren
einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
└– top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└─ truncation enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Typ enum Typ des Ereignisses Immer response.in_progress.
Möglicher Wert: response.in_progress
Ja

OpenAI.ResponseIncompleteEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort als unvollständig abgeschlossen wird.

Name Typ BESCHREIBUNG Erforderlich Standard
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└─ id Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
└─ max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└– Begründung OpenAI.Reasoning nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└─ status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└─ text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren
einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
└– top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└─ truncation enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Typ enum Typ des Ereignisses Immer response.incomplete.
Möglicher Wert: response.incomplete
Ja

OpenAI.ResponseItemList

Eine Liste der Antwortelemente.

Name Typ BESCHREIBUNG Erforderlich Standard
Daten array Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. Ja
first_id Schnur Die ID des ersten Elements in der Liste. Ja
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Ja
last_id Schnur Die ID des letzten Elements in der Liste. Ja
Objekt enum Der Typ des zurückgegebenen Objekts muss list sein.
Möglicher Wert: list
Ja

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.

Name Typ BESCHREIBUNG Erforderlich Standard
delta Die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf. Ja
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen MCP-Toolaufrufelements. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.mcp_call.arguments_delta”.
Möglicher Wert: response.mcp_call.arguments_delta
Ja

OpenAI.ResponseMCPCallArgumentsDoneEvent

Wird ausgegeben, wenn die Argumente für einen MCP-Toolaufruf abgeschlossen werden.

Name Typ BESCHREIBUNG Erforderlich Standard
arguments Die abgeschlossenen Argumente für den MCP-Toolaufruf. Ja
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen MCP-Toolaufrufelements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.mcp_call.arguments_done”.
Möglicher Wert: response.mcp_call.arguments_done
Ja

OpenAI.ResponseMCPCallCompletedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf erfolgreich abgeschlossen wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Typ des Ereignisses Immer „response.mcp_call.completed“.
Möglicher Wert: response.mcp_call.completed
Ja

OpenAI.ResponseMCPCallFailedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Typ des Ereignisses Immer „response.mcp_call.failed“.
Möglicher Wert: response.mcp_call.failed
Ja

OpenAI.ResponseMCPCallInProgressEvent

Wird ausgegeben, wenn sich ein MCP-Toolaufruf in Bearbeitung befindet.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des sich in Bearbeitung befindlichen MCP-Toolaufrufelements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.mcp_call.in_progress”.
Möglicher Wert: response.mcp_call.in_progress
Ja

OpenAI.ResponseMCPListToolsCompletedEvent

Wird ausgegeben, wenn die Liste der verfügbaren MCP-Tools erfolgreich abgerufen wurde.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Typ des Ereignisses Immer „response.mcp_list_tools.completed”.
Möglicher Wert: response.mcp_list_tools.completed
Ja

OpenAI.ResponseMCPListToolsFailedEvent

Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools aufzulisten, fehlgeschlagen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Typ des Ereignisses Immer „response.mcp_list_tools.failed”.
Möglicher Wert: response.mcp_list_tools.failed
Ja

OpenAI.ResponseMCPListToolsInProgressEvent

Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Typ des Ereignisses Immer „response.mcp_list_tools.in_progress”.
Möglicher Wert: response.mcp_list_tools.in_progress
Ja

OpenAI.ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item Objekt Inhaltselement, das zum Generieren einer Antwort verwendet wird. Ja
└─ id Schnur Nein
└– Typ OpenAI.ItemType Nein
output_index integer Der Index des Ausgabeelements, das hinzugefügt wurde. Ja
Typ enum Typ des Ereignisses Immer response.output_item.added.
Möglicher Wert: response.output_item.added
Ja

OpenAI.ResponseOutputItemDoneEvent

Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item Objekt Inhaltselement, das zum Generieren einer Antwort verwendet wird. Ja
└─ id Schnur Nein
└– Typ OpenAI.ItemType Nein
output_index integer Der Index des Ausgabeelements, das als erledigt markiert wurde. Ja
Typ enum Typ des Ereignisses Immer response.output_item.done.
Möglicher Wert: response.output_item.done
Ja

OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Typ: Objekt

OpenAI.ResponseQueuedEvent

Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.

Name Typ BESCHREIBUNG Erforderlich Standard
response Objekt Ja
└– Hintergrund boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll.
Erfahren Sie mehr.
Nein Falsch
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Nein
└– Fehler OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Nein
└─ id Schnur Eindeutiger Bezeichner für diese Antwort Nein
└─ incomplete_details Objekt Details dazu, warum die Antwort unvollständig ist. Nein
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
Nein
└– Anweisungen Zeichenfolge oder Array Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigen
Antwort nicht auf die nächste Antwort übertragen. Dies macht es einfach,
System- oder Entwicklernachrichten in neuen Antworten auszutauschen.
Nein
└– max_output_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. Nein
└─ max_tool_calls integer Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. Nein
└- Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Nein
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

– Die Länge und Reihenfolge der Elemente im Array output ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Nein
└─ Ausgabentext Schnur SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält
aus allen output_text Elementen im Array output, falls vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Nein Richtig
└– vorherige_Antwort_ID Schnur Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um
mehrteilige Unterhaltungen zu erstellen.
Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Nein
└– Begründung OpenAI.Reasoning nur Begründungsmodelle

Konfigurationsoptionen für
Begründungsmodelle.
Nein
└─ status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
└─ text Objekt Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben
Nein
└─ format OpenAI.ResponseTextFormatConfiguration Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren
einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge array Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie
können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die
Die Funktionen des Modells, z. B. Websuche oder Dateisuche.
Nein
└– top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. Nein
└– top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird,
bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“
berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 %
umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
└─ truncation enum Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten
die Größe des Kontextfensters des Modells überschreitet, schneidet die
Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der
Mitte der Unterhaltung weglässt.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitet
für ein Modell, tritt bei der Anforderung der Fehler 400 auf.
Mögliche Werte: auto, disabled
Nein
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt.
Nein
└– Benutzer Schnur Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. Nein
Typ enum Typ des Ereignisses Immer „response.queued”.
Möglicher Wert: response.queued
Ja

OpenAI.ResponseReasoningDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungsinhalt vorhanden ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Begründungsinhaltsteils innerhalb des Ausgabeelements. Ja
delta Die partielle Aktualisierung des Inhalts der Begründung. Ja
item_id Schnur Der eindeutige Bezeichner des Artikels, dessen Argumentation aktualisiert wird. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Typ enum Typ des Ereignisses Immer „response.reasoning.delta”.
Möglicher Wert: response.reasoning.delta
Ja

OpenAI.ResponseReasoningDoneEvent

Wird ausgegeben, wenn der Begründungsinhalt für ein Element abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Begründungsinhaltsteils innerhalb des Ausgabeelements. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Begründung abgeschlossen ist. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
Text Schnur Der abschließende Text für die Begründung. Ja
Typ enum Typ des Ereignisses Immer „response.reasoning.delta”.
Möglicher Wert: response.reasoning.done
Ja

OpenAI.ResponseReasoningSummaryDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungszusammenfassungsinhalt vorhanden ist.

Name Typ BESCHREIBUNG Erforderlich Standard
delta Die partielle Aktualisierung des Inhalts für die Begründungszusammenfassung. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Begründungszusammenfassung aktualisiert wird. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
summary_index integer Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. Ja
Typ enum Typ des Ereignisses Immer „response.reasoning_summary.delta”.
Möglicher Wert: response.reasoning_summary.delta
Ja

OpenAI.ResponseReasoningSummaryDoneEvent

Wird ausgegeben, wenn der Inhalt der Begründungszusammenfassung für ein Element abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Der eindeutige Bezeichner des Elements, für das die Begründungszusammenfassung abgeschlossen ist. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
summary_index integer Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. Ja
Text Schnur Der abschließende Zusammenfassungstext für die Begründung. Ja
Typ enum Typ des Ereignisses Immer „response.reasoning_summary.done”.
Möglicher Wert: response.reasoning_summary.done
Ja

OpenAI.ResponseReasoningSummaryPartAddedEvent

Wird ausgegeben, wenn der Zusammenfassungsbegründung ein neuer Teil hinzugefügt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
Teil Objekt Ja
└– Typ OpenAI.ReasoningItemSummaryPartType Nein
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. Ja
Typ enum Typ des Ereignisses Immer response.reasoning_summary_part.added.
Möglicher Wert: response.reasoning_summary_part.added
Ja

OpenAI.ResponseReasoningSummaryPartDoneEvent

Wird ausgegeben, wenn ein Zusammenfassungsteil für die Begründung abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
Teil Objekt Ja
└– Typ OpenAI.ReasoningItemSummaryPartType Nein
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. Ja
Typ enum Typ des Ereignisses Immer response.reasoning_summary_part.done.
Möglicher Wert: response.reasoning_summary_part.done
Ja

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Wird ausgegeben, wenn ein Delta zu einem Begründungszusammenfassungstext hinzugefügt wird.

Name Typ BESCHREIBUNG Erforderlich Standard
delta Schnur Das Textdelta, das der Zusammenfassung hinzugefügt wurde. Ja
item_id Schnur Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. Ja
Typ enum Typ des Ereignisses Immer response.reasoning_summary_text.delta.
Möglicher Wert: response.reasoning_summary_text.delta
Ja

OpenAI.ResponseReasoningSummaryTextDoneEvent

Wird ausgegeben, wenn ein Grundübersichtstext abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungstext zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungstext zugeordnet ist. Ja
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. Ja
Text Schnur Der vollständige Text der vollständigen Begründungszusammenfassung. Ja
Typ enum Typ des Ereignisses Immer response.reasoning_summary_text.done.
Möglicher Wert: response.reasoning_summary_text.done
Ja

OpenAI.ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein teilweiser Ablehnungstext vorhanden ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. Ja
delta Schnur Der Ablehnungstext, der hinzugefügt wird. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
Typ enum Typ des Ereignisses Immer response.refusal.delta.
Möglicher Wert: response.refusal.delta
Ja

OpenAI.ResponseRefusalDoneEvent

Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Inhaltsteils, dass der Ablehnungstext abgeschlossen wird Ja
item_id Schnur Die ID des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. Ja
output_index integer Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen wird Ja
Ablehnung Schnur Der Ablehnungstext, der abgeschlossen ist. Ja
Typ enum Typ des Ereignisses Immer response.refusal.done.
Möglicher Wert: response.refusal.done
Ja

OpenAI.ResponseStreamEvent

Diskriminator für OpenAI.ResponseStreamEvent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Typ BESCHREIBUNG Erforderlich Standard
sequence_number integer Die Sequenznummer für dieses Ereignis. Ja
Typ OpenAI.ResponseStreamEventType Ja

OpenAI.ResponseStreamEventType

Eigentum Wert
Typ Schnur
Werte response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde Ja
delta Schnur Das Textdelta, das hinzugefügt wurde Ja
item_id Schnur Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. Ja
Verschleierung Schnur Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. Ja
output_index integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde Ja
Typ enum Typ des Ereignisses Immer response.output_text.delta.
Möglicher Wert: response.output_text.delta
Ja

OpenAI.ResponseTextDoneEvent

Wird ausgegeben, wenn der Textinhalt abgeschlossen ist.

Name Typ BESCHREIBUNG Erforderlich Standard
content_index integer Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird Ja
item_id Schnur Die ID des Ausgabeelements, für das der Textinhalt abgeschlossen wird. Ja
output_index integer Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird Ja
Text Schnur Der Textinhalt, der abgeschlossen ist. Ja
Typ enum Typ des Ereignisses Immer response.output_text.done.
Möglicher Wert: response.output_text.done
Ja

OpenAI.ResponseTextFormatConfiguration

Diskriminator für OpenAI.ResponseTextFormatConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ResponseTextFormatConfigurationType Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,
was sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der
Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, der
stellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schema
wird für Modelle bevorzugt, die es unterstützen.
Ja

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: json_object
Ja

OpenAI.ResponseTextFormatConfigurationJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu Strukturierten Ausgaben.

Name Typ BESCHREIBUNG Erforderlich Standard
Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell
bestimmt wird, wie im Format geantwortet werden soll.
Nein
name Schnur Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder
Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen).
Ja
schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema.
im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn
strict ist true Weitere Informationen finden Sie in im Leitfaden für strukturierte
Ausgaben
.
Nein Falsch
Typ enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseTextFormatConfigurationText

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: text
Ja

OpenAI.ResponseTextFormatConfigurationType

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Eigentum Wert
Beschreibung Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. | | Typ | string | | Werte | text
json_schema
json_object |

OpenAI.ResponseUsage

Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die insgesamt verwendeten Token dar.

Name Typ BESCHREIBUNG Erforderlich Standard
input_tokens integer Die Anzahl der Eingabetoken. Ja
input_tokens_details Objekt Eine detaillierte Aufschlüsselung der Eingabetoken. Ja
└– zwischengespeicherte_Token integer Die Anzahl der Token, die aus dem Cache abgerufen wurden.
Weitere Informationen zum Zwischenspeichern von Prompts.
Nein
output_tokens integer Die Anzahl der Ausgabetoken. Ja
output_tokens_details Objekt Eine detaillierte Aufschlüsselung der Ausgabetoken. Ja
└─ reasoning_tokens integer Die Anzahl der Begründungstoken Nein
total_tokens integer Die Gesamtzahl der verwendeten Token. Ja

OpenAI.ResponseWebSearchCallCompletedEvent

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
Typ enum Typ des Ereignisses Immer response.web_search_call.completed.
Möglicher Wert: response.web_search_call.completed
Ja

OpenAI.ResponseWebSearchCallInProgressEvent

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
Typ enum Typ des Ereignisses Immer response.web_search_call.in_progress.
Möglicher Wert: response.web_search_call.in_progress
Ja

OpenAI.ResponseWebSearchCallSearchingEvent

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
Typ enum Typ des Ereignisses Immer response.web_search_call.searching.
Möglicher Wert: response.web_search_call.searching
Ja

OpenAI.ResponsesAssistantMessageItemParam

Ein Nachrichtenparameterelement mit der Rolle assistant.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer assistant ist.
Möglicher Wert: assistant
Ja

OpenAI.ResponsesAssistantMessageItemResource

Ein Nachrichtenressourcenelement mit der Rolle assistant.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer assistant ist.
Möglicher Wert: assistant
Ja

OpenAI.ResponsesDeveloperMessageItemParam

Ein Nachrichtenparameterelement mit der Rolle developer.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer developer ist.
Möglicher Wert: developer
Ja

OpenAI.ResponsesDeveloperMessageItemResource

Ein Nachrichtenressourcenelement mit der Rolle developer.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer developer ist.
Möglicher Wert: developer
Ja

OpenAI.ResponsesMessageItemParam

Ein Antwortnachrichtenelement, das eine Rolle und einen Inhalt darstellt, wie als Clientanforderungsparameter angegeben.

Diskriminator für OpenAI.ResponsesMessageItemParam

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Typ BESCHREIBUNG Erforderlich Standard
Rolle (role) Objekt Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Ja
Typ enum Der Typ des Antwortelements, der immer „message“ ist.
Möglicher Wert: message
Ja

OpenAI.ResponsesMessageItemResource

Ein Ressourcenelement für Antwortnachrichten, das eine Rolle und Inhalte darstellt, wie in Dienstantworten angegeben.

Diskriminator für OpenAI.ResponsesMessageItemResource

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Typ BESCHREIBUNG Erforderlich Standard
Rolle (role) Objekt Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
Typ enum Der Typ des Antwortelements, der immer „message“ ist.
Möglicher Wert: message
Ja

OpenAI.ResponsesMessageRole

Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.

Eigentum Wert
Beschreibung Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.
Typ Schnur
Werte system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Ein Nachrichtenparameterelement mit der Rolle system.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer system ist.
Möglicher Wert: system
Ja

OpenAI.ResponsesSystemMessageItemResource

Ein Nachrichtenressourcenelement mit der Rolle system.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer system ist.
Möglicher Wert: system
Ja

OpenAI.ResponsesUserMessageItemParam

Ein Nachrichtenparameterelement mit der Rolle user.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer user ist.
Möglicher Wert: user
Ja

OpenAI.ResponsesUserMessageItemResource

Ein Nachrichtenressourcenelement mit der Rolle user.

Name Typ BESCHREIBUNG Erforderlich Standard
Inhalt array Der Inhalt, welcher der Nachricht zugeordnet ist. Ja
Rolle (role) enum Die Rolle der Nachricht, die immer user ist.
Möglicher Wert: user
Ja

OpenAI.RunGraderRequest

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└─ calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└─ graders Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein
item Das Datasetelement, das dem Bewerter bereitgestellt wird. Dies wird zum Auffüllen
des Namespace item verwendet. Weitere Details finden Sie im Leitfaden.
Nein
model_sample Schnur Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen
des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.
Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel eine
gültige JSON-Zeichenfolge ist.
Ja

OpenAI.RunGraderResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Metadaten Objekt Ja
└– Fehler Objekt Nein
└– Formelauswertungsfehler boolean Nein
└– ungültiger_Variablenfehler boolean Nein
└─ model_grader_parse_error boolean Nein
└─ model_grader_refusal_error boolean Nein
└─ model_grader_server_error boolean Nein
└─ model_grader_server_error_details Schnur Nein
└─ other_error boolean Nein
└─ python_grader_runtime_error boolean Nein
└─ python_grader_runtime_error_details Schnur Nein
└– python_grader_server_error boolean Nein
└─ python_grader_server_error_type Schnur Nein
└– sample_parse_error boolean Nein
└─ truncated_observation_error boolean Nein
└– nicht-reaktionsfähiger_Belohnungsfehler boolean Nein
└– Ausführungszeit number Nein
└– Name Schnur Nein
└─ sampled_model_name Schnur Nein
└– Wertungen Nein
└– Tokenverwendung integer Nein
└– Typ Schnur Nein
model_grader_token_usage_per_model Ja
reward number Ja
sub_rewards Ja

OpenAI.StaticChunkingStrategy

Name Typ BESCHREIBUNG Erforderlich Standard
chunk_overlap_tokens integer Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.

Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf.
Ja
max_chunk_size_tokens integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096. Ja

OpenAI.StaticChunkingStrategyRequestParam

Passen Sie Ihre eigene Blockerstellungsstrategie an, indem Sie die Blockgröße und die Blocküberlappung festlegen.

Name Typ BESCHREIBUNG Erforderlich Standard
Statisch OpenAI.StaticChunkingStrategy Ja
Typ enum Immer static.
Möglicher Wert: static
Ja

OpenAI.StaticChunkingStrategyResponseParam

Name Typ BESCHREIBUNG Erforderlich Standard
Statisch OpenAI.StaticChunkingStrategy Ja
Typ enum Immer static.
Möglicher Wert: static
Ja

OpenAI.StopConfiguration

Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.

Dieses Schema akzeptiert einen der folgenden Typen:

  • String
  • array

OpenAI.Tool

Diskriminator für OpenAI.Tool

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ToolType Ein Tool, das zum Generieren einer Antwort verwendet werden kann. Ja

OpenAI.ToolChoiceObject

Diskriminator für OpenAI.ToolChoiceObject

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Ja

OpenAI.ToolChoiceObjectCodeInterpreter

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: code_interpreter
Ja

OpenAI.ToolChoiceObjectComputer

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: computer_use_preview
Ja

OpenAI.ToolChoiceObjectFileSearch

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: file_search
Ja

OpenAI.ToolChoiceObjectFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ BESCHREIBUNG Erforderlich Standard
name Schnur Der Name der aufzurufenden Funktion. Ja
Typ enum Bei Funktionsaufrufen ist der Typ immer function.
Möglicher Wert: function
Ja

OpenAI.ToolChoiceObjectImageGen

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: image_generation
Ja

OpenAI.ToolChoiceObjectMCP

Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.

Name Typ BESCHREIBUNG Erforderlich Standard
name Schnur Der Name des Tools, das auf dem Server aufgerufen werden soll. Nein
Serverbeschriftung Schnur Die Bezeichnung des zu verwendenden MCP-Servers. Ja
Typ enum Bei MCP-Tools ist der Typ immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.ToolChoiceObjectType

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.

Eigentum Wert
Beschreibung Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Typ Schnur
Werte file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum
Möglicher Wert: web_search_preview
Ja

OpenAI.ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.

Eigentum Wert
Beschreibung Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines oder
von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Typ Schnur
Werte none
auto
required

OpenAI.ToolType

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

Eigentum Wert
Beschreibung Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
Typ Schnur
Werte file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Die oberste Protokollwahrscheinlichkeit eines Tokens.

Name Typ BESCHREIBUNG Erforderlich Standard
Byte array Ja
logprob number Ja
token Schnur Ja

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Ja

OpenAI.UpdateVectorStoreRequest

Name Typ BESCHREIBUNG Erforderlich Standard
expires_after Objekt Die Ablaufrichtlinie für einen Vektorspeicher. Nein
└– Anker enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Nein
└– Tage integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Nein
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
name Schnur Der Name des Vektorspeichers. Nein

OpenAI.ValidateGraderRequest

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Ja
└─ calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└─ graders Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein

OpenAI.ValidateGraderResponse

Name Typ BESCHREIBUNG Erforderlich Standard
Bewerter Objekt Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Nein
└─ calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Nein
└- Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Nein
└─ graders Objekt Nein
└– image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
└– Eingabe array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Nein
└─ Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Nein
└– Name Schnur Name des Bewerters (Graders) Nein
└─ Vorgang enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Nein
└– Bereich array Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
└– Referenz Schnur Der Text, für die Bewertung. Nein
└– Stichprobenparameter Die Samplingparameter für das Modell. Nein
└- Quelle Schnur Der Quellcode des Python-Skripts. Nein
└– Typ enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Nein

OpenAI.VectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Typ BESCHREIBUNG Erforderlich Standard
anchor enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Ja
days integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Ja

OpenAI.VectorStoreFileAttributes

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, boolesche Werte oder Zahlen.

Typ: Objekt

OpenAI.VectorStoreFileBatchObject

Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. Ja
file_counts Objekt Ja
└– abgebrochen integer Die Anzahl von Dateien, die abgebrochen wurden. Nein
└– abgeschlossen integer Die Anzahl verarbeiteter Dateien. Nein
└– fehlgeschlagen integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten. Nein
└─ in Bearbeitung integer Die Anzahl von Dateien, die derzeit verarbeitet werden. Nein
└– Gesamtsumme integer Die Gesamtanzahl der Dateien. Nein
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt enum Der Objekttyp, der immer vector_store.file_batch ist.
Möglicher Wert: vector_store.files_batch
Ja
status enum Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed).
Mögliche Werte: in_progress, , completed, cancelledfailed
Ja
vector_store_id Schnur Die ID des Vektorspeichers, an den die Datei angefügt ist. Ja

OpenAI.VectorStoreFileObject

Eine Liste der an einen Vektorspeicher angefügten Dateien.

Name Typ BESCHREIBUNG Erforderlich Standard
attributes Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen
mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen
Länge von 512 Zeichen, Boolesche Werte oder Zahlen.
Nein
chunking_strategy Objekt Nein
└– Typ enum
Mögliche Werte: static, other
Nein
erstellt_am integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
last_error Objekt Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null, wenn keine Fehler vorliegen. Ja
└– Code enum Einer der folgenden Werte: server_error oder rate_limit_exceeded.
Mögliche Werte: server_error, , unsupported_fileinvalid_file
Nein
└– Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Nein
Objekt enum Der Objekttyp, der immer vector_store.file ist.
Möglicher Wert: vector_store.file
Ja
status enum Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist.
Mögliche Werte: in_progress, , completed, cancelledfailed
Ja
usage_bytes integer Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. Ja
vector_store_id Schnur Die ID des Vektorspeichers, an den die Datei angefügt ist. Ja

OpenAI.VectorStoreObject

Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Name Typ BESCHREIBUNG Erforderlich Standard
erstellt_am integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. Ja
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
läuft_ab_am integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. Nein
file_counts Objekt Ja
└– abgebrochen integer Die Anzahl von Dateien, die abgebrochen wurden. Nein
└– abgeschlossen integer Die Anzahl erfolgreich verarbeiteter Dateien. Nein
└– fehlgeschlagen integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten. Nein
└─ in Bearbeitung integer Die Anzahl von Dateien, die derzeit verarbeitet werden. Nein
└– Gesamtsumme integer Die Gesamtanzahl der Dateien. Nein
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
last_active_at integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. Ja
Metadaten Objekt 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Ja
name Schnur Der Name des Vektorspeichers. Ja
Objekt enum Der Objekttyp, der immer vector_store ist.
Möglicher Wert: vector_store
Ja
status enum Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist.
Mögliche Werte: expired, , in_progresscompleted
Ja
usage_bytes integer Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. Ja

OpenAI.VoiceIdsShared

Eigentum Wert
Typ Schnur
Werte alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Diskriminator für OpenAI.WebSearchAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Typ BESCHREIBUNG Erforderlich Standard
Typ OpenAI.WebSearchActionType Ja

OpenAI.WebSearchActionFind

Aktionstyp „find“: Sucht innerhalb einer geladenen Seite nach einem Muster.

Name Typ BESCHREIBUNG Erforderlich Standard
pattern Schnur Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. Ja
Typ enum Der Aktionstyp.
Möglicher Wert: find
Ja
url Schnur Die URL der Seite, die nach dem Muster durchsucht wird. Ja

OpenAI.WebSearchActionOpenPage

Aktionstyp „open_page“ – Öffnet eine bestimmte URL aus Suchergebnissen.

Name Typ BESCHREIBUNG Erforderlich Standard
Typ enum Der Aktionstyp.
Möglicher Wert: open_page
Ja
url Schnur Die URL, die vom Modell geöffnet wird. Ja

OpenAI.WebSearchActionSearch

Aktionstyp „search“ – Führt eine Websuchabfrage aus.

Name Typ BESCHREIBUNG Erforderlich Standard
Anfrage Schnur Die Suchabfrage Ja
Typ enum Der Aktionstyp.
Möglicher Wert: search
Ja

OpenAI.WebSearchActionType

Eigentum Wert
Typ Schnur
Werte search
open_page
find

OpenAI.WebSearchPreviewTool

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
Suchkontextgröße enum Allgemeine Richtlinie für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer von low, medium oder high. medium ist die Standardeinstellung.
Mögliche Werte: low, , mediumhigh
Nein
Typ enum Der Typ des Websuchtools. Einer der folgenden Werte: web_search_preview oder web_search_preview_2025_03_11.
Möglicher Wert: web_search_preview
Ja
Benutzerstandort Objekt Nein
└– Typ OpenAI.LocationType Nein

OpenAI.WebSearchToolCallItemParam

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
action Objekt Ja
└– Typ OpenAI.WebSearchActionType Nein
Typ enum
Möglicher Wert: web_search_call
Ja

OpenAI.WebSearchToolCallItemResource

Hinweis

web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ BESCHREIBUNG Erforderlich Standard
action Objekt Ja
└– Typ OpenAI.WebSearchActionType Nein
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Ja
Typ enum
Möglicher Wert: web_search_call
Ja

PineconeChatDataSource

Name Typ BESCHREIBUNG Erforderlich Standard
Parameter Objekt Die Parameterinformationen zum Steuern der Verwendung der Pinecone-Datenquelle. Ja
└– erlaube_unvollständiges_Ergebnis boolean Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle
Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt.
Nein Falsch
└– Authentifizierung Objekt Nein
└– Schlüssel Schnur Nein
└– Typ enum
Möglicher Wert: api_key
Nein
└– embedding_dependency Objekt Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. Nein
└– Typ AzureChatDataSourceVectorizationSourceType Der unterscheidende Bezeichner für die konkrete Vektorisierungsquelle. Nein
└– Umwelt Schnur Der mit Pinecone zu verwendende Umgebungsname. Nein
└– fields_mapping Objekt Feldzuordnungen, die auf Daten angewendet werden, die von der Pinecone-Datenquelle verwendet werden.
Beachten Sie, dass Inhaltsfeldzuordnungen für Pinecone erforderlich sind.
Nein
└─ content_fields array Nein
└─ Inhalt_Feldtrenner Schnur Nein
└─ filepath_field Schnur Nein
└– Titel_Feld Schnur Nein
└– url_field Schnur Nein
└– in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. Nein
└– Kontexte_einschließen array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
Nein ['Zitate', 'Absicht']
└– index_name Schnur Der Name des zu verwendenden Pinecone-Datenbankindexes. Nein
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig nimmt das System eine automatische Bestimmung vor.
Nein
└– Striktheit integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort.
Nein
└– top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. Nein
Typ enum Der diskriminierte Typbezeichner, der immer „pinecone” ist.
Möglicher Wert: pinecone
Ja

ResponseFormatJSONSchemaRequest

Name Typ BESCHREIBUNG Erforderlich Standard
JSON-Schema Objekt JSON-Schema für das Antwortformat Ja
Typ enum Typ des Antwortformats
Möglicher Wert: json_schema
Ja

ResponseModalities

Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]

Array von: Zeichenfolge