Freigeben über


Azure OpenAI in der REST-API-Vorschaureferenz für Microsoft Foundry Models

Hinweis

Dieses Dokument bezieht sich auf das Microsoft Foundry(klassische) Portal.

🔍 Zeigen Sie die Microsoft Foundry-Dokumentation (neu) an, um mehr über das neue Portal zu erfahren.

Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.

API-Spezifikationen

Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:

  • Steuerebene
  • Datenebene: Erstellung
  • Datenebene: Rückschluss

Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.

Important

Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

API Neuestes Vorschaurelease Neuestes allgemein verfügbares Release Specifications Description
Steuerungsebene 2025-07-01-preview 2025-06-01 Spezifikationsdateien Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist.
Datenebene v1 preview v1 Spezifikationsdateien Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge.

Authentication

Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token muss Bearer vorangestellt werden. Beispiel: Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Datenebene: Rückschluss

Der Rest des Artikels behandelt die 2025-04-01-preview Vorschauversion der Azure OpenAI-Datenebenen-Ableitungsspezifikation.

Eine Dokumentation für das neueste allgemein verfügbare API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.

Vervollständigungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
best_of integer Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – – best_of muss größer als n sein.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. No False
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
No None
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn beispielsweise logprobs 5 ist, gibt die API eine Liste der 5 höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob Beispieltoken zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.

Der Höchstwert für logprobs ist 5.
No None
max_tokens integer Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können.

Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
prompt Zeichenfolge oder Array Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während des Trainings sieht. Wenn also keine Eingabeaufforderung angegeben wird, generiert das Modell, als ob es sich am Anfang eines neuen Dokuments befindet.
Yes
seed integer Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Array Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. No
stream boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Python-Beispielcode
No False
suffix string Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.

Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
No None
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json createCompletionResponse

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Einbettungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine-Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string Die Bereitstellungs-ID des Modells, das bereitgestellt wurde.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No
encoding_format string Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. No
input Zeichenfolge oder Array Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder weniger umfassen. Yes
input_type string Eingabetyp der zu verwendenden Einbettungssuche No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json object

Examples

Example

Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Chatvervollständigungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Erstellt eine Vervollständigung für die Chatnachricht

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
audio object Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"] angefordert wird. No
└─ Format enum Gibt das Audioformat der Ausgabe an. Muss eine von wav, mp3, flac, opus oder pcm16 sein.

Mögliche Werte: wav, , mp3flac, , opuspcm16
No
└– Stimme enum Gibt den Stimmentyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.

Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
function_call string oder chatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
No None
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. No False
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. No
max_tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt.
No
messages array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode Yes
metadata object Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. No
modalities ChatCompletionModalities Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]
No
n integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Sie werden basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt. Behalten Sie n als 1, um die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
prediction PredictionContent Konfiguration für eine vorhergesagte Ausgabe, was die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am verbreitetsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. No
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
reasoning_effort enum Nur o1-Modelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Mögliche Werte: low, , mediumhigh
No
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.

Einstellen auf { "type": "json_schema", "json_schema": {...} } aktiviert Strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Array Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet.
No
store boolean Gibt an, ob die Ausgabe dieser Chatvervollständigungsanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No
stream boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. Python-Beispielcode
No False
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No None
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. No
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No
user_security_context userSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json object

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Examples

Example

Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Bildvektordaten.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die angegebene Mongo DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die angegebene Elasticsearch-Instanz.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Erstellt eine Vervollständigung für die angegebene Pinecone-Ressource.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkriptionen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transkribiert Audio in die Eingabesprache

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Type Description Required Default
model string Die ID des zu verwendenden Modells. Die Optionen sind gpt-4o-transcribe: , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1und gpt-4o-transcribe-diarize. Yes
file string Das zu transkribierende Audiodateiobjekt Yes
language string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
temperature number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json object
text/plain string Transkribierter Text im Ausgabeformat (wenn das Antwortformat eines von text, vtt oder srt war).

Examples

Example

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Übersetzungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transkribiert Audioeingaben und übersetzt sie in englischen Text

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Type Description Required Default
file string Die zu übersetzende Audiodatei Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
temperature number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json object
text/plain string Transkribierter Text im Ausgabeformat (wenn response_format eines der Formate Text, vtt oder srt war).

Examples

Example

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Antworten: Statuscode: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Sprache: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Generiert Audio aus dem Eingabetext.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Type Description Required Default
input string Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. Yes
response_format enum Das Format für die Audiosynthetisierung.
Mögliche Werte: mp3, , opus, aacflac, , , wavpcm
No
speed number Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus. 1.0 ist die Standardeinstellung. No 1.0
voice enum Die Stimme, die für die Sprachsynthese verwendet werden soll.
Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
Yes

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Synthetisiert Audio aus dem bereitgestellten Text.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Antworten: Statuscode: 200

{
  "body": "101010101"
}

Bildgenerierungen: Erstellen

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Erzeugt eine Reihe von Bildern aus einer Textbeschriftung auf einem bestimmten DALL-E- oder gpt-image-1-Serienmodell

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
background imageBackground Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. No auto
n integer Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. No 100
output_format imagesOutputFormat Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. No png
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serie und 4000 Zeichen für dall-e-3 Yes
partial_images integer Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird. 0
stream boolean Bearbeiten Sie das Bild im Streamingmodus. no false
quality imageQuality Die Qualität des zu generierenden Bilds No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json.
No url
size imageSize Die Größe der generierten Bilder. No auto
style imageStyle Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt. No vivid
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Erstellt Bilder auf der Grundlage eines Prompts.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Bildgenerationen - Bearbeiten

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Bearbeitet ein Bild einer Textbeschriftung für eine bestimmte gpt-image-1-Modellimplementierung.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Type Description Required Default
image Zeichenfolge oder Array Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 50 MB ist. Yes
input_fidelity string Steuern Sie, wie viel Aufwand das Modell ausüben wird, um dem Stil und den Features, insbesondere Gesichtsmerkmalen, von Eingabebildern zu entsprechen. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. Unterstützt high und low. no low.
mask string Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. No
n integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. No 1
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. Yes
quality imageQuality Die Qualität des zu generierenden Bilds No auto
partial_images Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird.
stream boolean Bearbeiten Sie das Bild im Streamingmodus. no false
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
size imageSize Die Größe der generierten Bilder. No auto
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json generateImagesResponse

Statuscode: Standard

Beschreibung: Fehler.

Content-Type Type Description
application/json dalleErrorResponse

Auflisten: Assistenten

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Gibt eine Liste mit Assistenten zurück.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Gibt eine Liste mit Assistenten zurück.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Erstellen: Assistent

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
└– Vektorspeicher array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Abrufen: Assistent

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Ruft einen Assistenten ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des abzurufenden Assistenten.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Ruft einen Assistenten ab.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Ändern: Assistent

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Ändert einen Assistenten.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des zu ändernden Assistenten.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string No
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Ändert einen Assistenten.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Löschen: Assistent

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Löscht einen Assistenten.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Die ID des zu löschenden Assistenten.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Löscht einen Assistenten.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Erstellen: Thread

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Erstellen Sie einen Thread.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
messages array Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No
└– Vektorspeicher array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Erstellt einen Thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Abrufen: Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Ruft einen Thread ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des abzurufenden Threads.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Ruft einen Thread ab.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Ändern: Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Ändert einen Thread.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des zu ändernden Threads. Nur die metadata Kann geändert werden.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Ändert einen Thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Löschen: Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Löscht einen Thread.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des zu löschenden Threads.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Löscht einen Thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Auflisten: Nachrichten

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Gibt eine Liste von Nachrichten für einen bestimmten Thread zurück.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu der die Nachrichten gehören.
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
run_id query No string Filtern Sie Nachrichten nach der Ausführungs-ID, die sie generiert hat.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

Nachrichten auflisten

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Erstellen: Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Erstellen Sie eine Nachricht.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, für die eine Nachricht erstellt werden soll.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
attachments array Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. No
content string Der Inhalt der Nachricht. Yes
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
role string Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind:
- user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Yes

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Erstellen Sie eine Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Abrufen: Nachricht

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Rufen Sie eine Nachricht ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen diese Nachricht gehört.
message_id path Yes string Die ID der abzurufenden Nachricht.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Rufen Sie eine Nachricht ab.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Ändern: Nachricht

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Ändert eine Nachricht.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem diese Nachricht gehört.
message_id path Yes string Die ID der zu ändernden Nachricht.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Ändern Sie eine Nachricht.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Erstellen: Thread und Ausführung

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der für diese Ausführung verwendet werden soll Yes
instructions string Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No None
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runObject

Examples

Example

Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Auflisten: Ausführungen

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem die Ausführung gehört.
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Erstellen: Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Erstellen Sie eine Ausführung.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des auszuführenden Threads.
include[] query No array Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert zum Abrufen der Dateisuchergebnisinhalte.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. No
additional_messages array Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. No
assistant_id string Die ID des Assistenten, der für diese Ausführung verwendet werden soll Yes
instructions string Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string Die ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runObject

Examples

Example

Erstellen Sie eine Ausführung.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Abrufen: Ausführung

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Ruft eine Ausführung ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der ausgeführten Threads.
run_id path Yes string ID der abzurufenden Ausführung
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runObject

Examples

Example

Ruft eine Ausführung ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Ändern: Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Ändert eine Ausführung.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der ausgeführten Threads.
run_id path Yes string Die ID des zu ändernden Laufs.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runObject

Examples

Example

Ändert eine Ausführung.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Übermitteln: Toolausgaben für die Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Wenn eine Ausführung den Status status: "requires_action" hat und required_action.type auf submit_tool_outputs festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID der Threads, zu denen diese Ausführung gehört.
run_id path Yes string Die ID der Ausführung, für die die Toolausgabeübermittlung erforderlich ist
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
stream boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
tool_outputs array Eine Liste der Tools, für die die Ausgaben übermittelt werden Yes

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runObject

Examples

Example

Wenn eine Ausführung den Status status: "requires_action" hat und required_action.type auf submit_tool_outputs festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Abbrechen: Ausführung

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Bricht eine Ausführung ab, die den Status in_progress aufweist.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem diese Ausführung gehört.
run_id path Yes string ID der Ausführung, die abgebrochen werden soll
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runObject

Examples

Example

Bricht eine Ausführung ab, die den Status in_progress aufweist.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Auflisten: Ausführungsschritte

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem die Ausführung und die Ausführungsschritte gehören
run_id path Yes string Die ID der Ausführung, zu der die Ausführungsschritte gehören
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string
include[] query No array Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert zum Abrufen der Dateisuchergebnisinhalte.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Abrufen: Ausführungsschritt

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Ruft einen Ausführungsschritt ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
thread_id path Yes string Die ID des Threads, zu dem die Ausführung und der Ausführungsschritt gehören
run_id path Yes string Die ID der Ausführung, zu der der Ausführungsschritt gehört
step_id path Yes string Die ID des abzurufenden Ausführungsschritts
include[] query No array Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert zum Abrufen der Dateisuchergebnisinhalte.
api-version query Yes string

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Ruft einen Ausführungsschritt ab.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Auflisten: Vektorspeicher

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Gibt eine Liste mit Vektorspeichern zurück.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Gibt eine Liste mit Vektorspeichern zurück.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Erstellen: Vektorspeicher

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Erstellen Sie einen Vektorspeicher.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Erstellt einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Abrufen: Vektorspeicher

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Ruft einen Vektorspeicher ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des abzurufenden Vektorspeichers.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Ruft einen Vektorspeicher ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Ändern: Vektorspeicher

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Ändert einen Vektorspeicher.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu ändernden Vektorspeichers.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Ändert einen Vektorspeicher.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Löschen: Vektorspeicher

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Löschen Sie einen Vektorspeicher.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu löschenden Vektorspeichers.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Löscht einen Vektorspeicher.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Auflisten: Vektorspeicherdateien

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Gibt eine Liste mit Vektorspeicherdateien zurück.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No string
Mögliche Werte: in_progress, , completed, failedcancelled
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Gibt eine Liste mit Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Erstellen: Vektorspeicherdatei

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No
file_id string Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Yes

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Abrufen: Vektorspeicherdatei

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Ruft eine Vektorspeicherdatei ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der abgerufenen Datei.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Ruft eine Vektorspeicherdatei ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Löschen: Vektorspeicherdatei

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der zu löschenden Datei.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Aktualisieren von Attributen in einer Vektorspeicherdatei.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der Datei zum Aktualisieren von Attributen.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Yes

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreFileObject

Abrufen von Vektorspeicherdateiinhalten

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Rufen Sie den analysierten Inhalt einer Vektorspeicherdatei ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers.
file_id path Yes string Die ID der Datei im Vektorspeicher.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Vektorspeicher durchsuchen

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Suchen Sie einen Vektorspeicher nach relevanten Blöcken basierend auf einem Abfrage- und Dateiattributefilter.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des zu durchsuchenden Vektorspeichers.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. No 10
query Zeichenfolge oder Array Eine Abfragezeichenfolge für eine Suche Yes
ranking_options object Sortieroptionen für die Suche. No
└– Ranker enum
Mögliche Werte: auto, default-2024-11-15
No
└─ Punktschwelle number No 0
rewrite_query boolean Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. No False

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Erstellen: Vektorspeicher-Dateibatch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Erstellen Sie einen Vektorspeicher-Dateibatch.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Yes

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Erstellen Sie einen Vektorspeicher-Dateibatch.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Antworten: Statuscode: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Abrufen: Vektorspeicher-Dateibatch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Ruft einen Vektorspeicher-Dateibatch ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des abgerufenen Dateibatches
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Ruft einen Vektorspeicher-Dateibatch ab.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Abbrechen: Vektorspeicher-Dateibatch

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des zu abbrechenden Dateibatches.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Auflisten: Dateien eines Vektorspeicher-Dateibatchs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
batch_id path Yes string Die ID des Dateibatches, zu dem die Dateien gehören.
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No string
Mögliche Werte: in_progress, , completed, failedcancelled
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.
api-version query Yes string API-Version

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Gibt eine Liste mit Vektorspeicherdateien zurück.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Antworten: Statuscode: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Erstellen: Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API. Kann mit denselben Sitzungsparametern wie das session.update Clientereignis konfiguriert werden. Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.
Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden.
Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird.
No
└– Typ enum Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription, standardmäßig ausgeschaltet und kann auf null eingestellt werden, um es auszuschalten, wenn es einmal eingeschaltet ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└– Sprache string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ Modell string Das Modell, das für die Transkription verwendet werden soll, umfasst die aktuellen Optionen gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1.
No
└– Eingabeaufforderung string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
instructions string Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann zu Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "freundlich verhalten", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "schnell sprechen", "Emotionen in die Stimme einfügen", "häufig lachen"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.

Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist.
No
max_response_output_tokens ganze Zahl oder Zeichenfolge Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 ein, um die Ausgabetoken zu begrenzen, oder verwenden Sie inf für die maximal verfügbaren Token eines bestimmten Modells. Wird standardmäßig auf inf festgelegt.
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
model string Der Name der Bereitstellung, die für diese Sitzung verwendet wird
No
output_audio_format enum Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Bei pcm16 wird eine Abtastrate von 24 kHz für die Ausgabeaudiodaten verwendet.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
temperature number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen.
No 0.8
tool_choice string Gibt an, wie das Modell Tools auswählt. Optionen sind auto, none, requiredoder geben Sie eine Funktion an.
No auto
tools array Tools (Funktionen), die für das Modell verfügbar sind. No
turn_detection object Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└– create_response boolean Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt.
No True
└– Eifer enum Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht medium.

Mögliche Werte: low, , medium, highauto
No
└– interrupt_response boolean Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt.
No True
└– prefix_padding_ms integer Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms
No
└– Dauer_der_Stille_in_ms integer Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└– Schwellenwert number Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└– Typ enum Art der Kurvenerkennung.

Mögliche Werte: server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Statuscode: 200

Beschreibung: Die Sitzung wurde erfolgreich erstellt.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Erstellen: Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeittranskriptionen. Kann mit denselben Sitzungsparametern wie das transcription_session.update Clientereignis konfiguriert werden. Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
include array Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.
Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden.
Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird.
No
└– Typ enum Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└– Sprache string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ Modell enum Das Modell, das für die Transkription verwendet werden soll: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1.

Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└– Eingabeaufforderung string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
turn_detection object Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└– create_response boolean Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└– Eifer enum Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht medium.

Mögliche Werte: low, , medium, highauto
No
└– interrupt_response boolean Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└– prefix_padding_ms integer Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms
No
└– Dauer_der_Stille_in_ms integer Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└– Schwellenwert number Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└– Typ enum Art der Kurvenerkennung.

Mögliche Werte: server_vad, semantic_vad
No

Responses

Statuscode: 200

Beschreibung: Die Sitzung wurde erfolgreich erstellt.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Erstellt eine Modellantwort.

Anforderungstext

Content-Type: application/json

Name Type Description Required Default
include array No
input Zeichenfolge oder Array Modelleingaben Yes
instructions string Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein.

Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für Antworten generiert werden können, einschließlich sichtbarer Ausgabetoken und Konversationsstatus.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.
No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Gesprächszustand.
No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle. No
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll.
No True
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird.
Weitere Informationen finden Sie im Abschnitt "Streaming" weiter unten.
No False
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ Format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Funktionen des Modells
No
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Antwort-API – Eingabeelemente

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Ruft eine Modellantwort mit der angegebenen ID ab.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der abzurufenden Antwort
include query No array Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. Weitere Informationen finden Sie im Parameter include für die Erstellung von Antworten.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json response

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Antwort löschen

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Löscht eine Modellantwort mit der angegebenen ID.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der zu löschenden Antwort.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Statuscode: 404

Beschreibung: Nicht gefunden

Content-Type Type Description
application/json error

Statuscode: Standard

Beschreibung: Dienst nicht verfügbar

Content-Type Type Description
application/json errorResponse

Antwort-API – Antwortelementliste

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

URI-Parameter

Name In Required Type Description
endpoint path Yes Zeichenketten-URL Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com
response_id path Yes string Die ID der Antwort, für die Eingabeelemente abgerufen werden sollen
limit query No integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden sollen. Der Standardwert ist asc.
- asc: Gibt die Eingabeelemente in aufsteigender Reihenfolge zurück.
- desc: Gibt die Eingabeelemente in absteigender Reihenfolge zurück.
after query No string Eine Element-ID, nach der Elemente aufgeführt werden sollen (wird bei Paginierung verwendet)
before query No string Eine Element-ID, um Elemente davor aufzulisten, die in der Paginierung verwendet wird.

Anfrage-Kopf

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.

Name Required Type Description
Authorization True string Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}

So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Typ: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereich: https://cognitiveservices.azure.com/.default
api-key True string Geben Sie hier den Azure OpenAI-API-Schlüssel an.

Responses

Statuscode: 200

Beschreibung: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Innerer Fehler mit zusätzlichen Details. No
param string No
type string No

innerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt No
content_filter_results contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No

innerErrorCode

Fehlercodes für das innere Fehlerobjekt

Property Value
Description Fehlercodes für das innere Fehlerobjekt
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Innerer Fehler mit zusätzlichen Details. No
param string No
type string No

dalleInnerError

Innerer Fehler mit zusätzlichen Details.

Name Type Description Required Default
code innerErrorCode Fehlercodes für das innere Fehlerobjekt No
content_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No
revised_prompt string Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde No

contentFilterCompletionTextSpan

Beschreibt eine Spanne innerhalb des generierten Vervollständigungstexts. Offset 0 ist der erste UTF32-Codepunkt des Vervollständigungstexts.

Name Type Description Required Default
completion_end_offset integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. Yes
completion_start_offset integer Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└– URL string No
└– Lizenz string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No
prompt_index integer No

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Für diese Komponente sind keine Eigenschaften definiert.

dalleContentFilterResults

Informationen zu den Ergebnissen der Inhaltsfilterung

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. No
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. No
max_tokens integer Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). Dies ist nicht mit Modellen der o1-Serie kompatibel. No 4096
metadata object Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. No
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. No 0
stop Zeichenfolge oder Array Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. No
store boolean Gibt an, ob die Ausgabe dieser Chatvervollständigungsanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No
stream boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Tokens werden als ausschließlich serverseitig gesendete Datenereignisse übertragen, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Meldung beendet wird. No False
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. No

createCompletionRequest

Name Type Description Required Default
best_of integer Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.

Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen. best_of muss größer als nsein.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
echo boolean Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück.
No False
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
No None
logprobs integer Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Token zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.

Der Höchstwert für logprobs ist 5.
No None
max_tokens integer Die maximale Anzahl von Tokens, die bei der Vervollständigung generiert werden können.

Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
No 16
n integer Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.

Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
No 1
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
prompt Zeichenfolge oder Array Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden.

Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt.
Yes
seed integer Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.

Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Array Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten.
No
stream boolean Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird. Python-Beispielcode
No False
suffix string Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.

Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
No None
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No

createCompletionResponse

Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).

Name Type Description Required Default
choices array Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Vervollständigung erstellt wurde Yes
id string Eindeutiger Bezeichner für die Vervollständigung Yes
model string Das für die Vervollständigung verwendete Modell Yes
object enum Der Objekttyp, der immer „text_completion“ lautet
Möglicher Wert: text_completion
Yes
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
No
usage completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung No

createChatCompletionRequest

Name Type Description Required Default
audio object Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"] angefordert wird. No
└─ Format enum Gibt das Audioformat der Ausgabe an. Muss eine von wav, mp3, flac, opus oder pcm16 sein.

Mögliche Werte: wav, , mp3flac, , opuspcm16
No
└– Stimme enum Gibt den Stimmentyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.

Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
No
data_sources array Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden.
Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel.
No
frequency_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
No 0
function_call string oder chatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.

Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind.
No
functions array Zugunsten von tools eingestellt.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.

Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
No None
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. No False
max_completion_tokens integer Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. No
max_tokens integer Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.

Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt.
No
messages array Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode Yes
metadata object Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. No
modalities ChatCompletionModalities Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]
No
n integer Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. No 1
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
prediction PredictionContent Konfiguration für eine vorhergesagte Ausgabe, was die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am verbreitetsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. No
presence_penalty number Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
No 0
reasoning_effort enum Nur o1-Modelle

Schränkt den Begründungsaufwand für Begründungsmodelle ein.

Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Mögliche Werte: low, , mediumhigh
No
response_format ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.

Das Einstellen von { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell einem bereitgestellten JSON-Schema entspricht.

Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop Zeichenfolge oder Array Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet.
No
store boolean Gibt an, ob die Ausgabe dieser Chatvervollständigungsanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No
stream boolean Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird. Python-Beispielcode
No False
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No None
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
tool_choice chatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind. No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. No
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
No
user_security_context userSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. No

userSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud.

Name Type Description Required Default
application_name string Der Name der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. No
end_user_id string Dieser Bezeichner ist die Benutzerobjekt-ID von Microsoft Entra ID (früher Azure Active Directory), die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. No
end_user_tenant_id string Die Microsoft 365-Mandanten-ID, zu der der Endbenutzer gehört. Sie ist erforderlich, wenn die generative KI-Anwendung mehrinstanzenfähig ist. No
source_ip string Erfasst die IP-Adresse des ursprünglichen Clients, wobei sowohl IPv4- als auch IPv6-Formate akzeptiert werden. No

chatCompletionFunctions

Name Type Description Required Default
description string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Yes
parameters FunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
No

chatCompletionFunctionCallOption

Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Name Type Description Required Default
name string Der Name der aufzurufenden Funktion. Yes

chatCompletionFunctionParameters

Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung guide/ und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionRequestMessage

Mögliche Werte für diese Komponente:

ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.

Name Type Description Required Default
content Zeichenfolge oder Array Der Inhalt der Entwicklernachricht. Yes
name string Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).
Möglicher Wert: developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content Zeichenfolge oder Array Die Inhalte der Systemnachricht. Yes
name string Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: system).
Möglicher Wert: system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content Zeichenfolge oder Array Die Inhalte der Benutzernachricht.
Yes
name string Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: user).
Möglicher Wert: user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content Zeichenfolge oder Array Die Inhalte der Assistentennachricht. Erforderlich, es sei denn, tool_calls oder function_call ist angegeben.
No
function_call object Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└- Argumente string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. No
└– Name string Der Name der aufzurufenden Funktion. No
name string Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
refusal string Die Ablehnungsnachricht des Assistenten. No
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).
Möglicher Wert: assistant
Yes
tool_calls chatCompletionMessageToolCalls Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content Zeichenfolge oder Array Die Inhalte der Toolnachricht. Yes
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).
Möglicher Wert: tool
Yes
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Die Inhalte der Funktionsmeldung. Yes
name string Der Name der aufzurufenden Funktion. Yes
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Möglicher Wert: function
Yes

chatCompletionRequestDeveloperMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestSystemMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestUserMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestAssistantMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestToolMessageContentPart

Mögliche Werte für diese Komponente:

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Der Textinhalt. Yes
type enum Der Typ des Inhaltsteils
Möglicher Wert: text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└– Daten string Base64-codierte Audiodaten. No
└─ Format enum Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”.

Mögliche Werte: wav, mp3
No
type enum Der Typ des Inhaltsteils Immer input_audio.
Möglicher Wert: input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└– Detail enum Gibt den Detailgrad des Bilds an. Weitere Informationen finden Sie im Leitfaden für Vision.
Mögliche Werte: auto, , lowhigh
No
└– URL string Entweder eine URL des Bilds oder die base64-codierten Bilddaten No
type enum Der Typ des Inhaltsteils
Möglicher Wert: image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Eine vom Modell generierte Ablehnungsmeldung. Yes
type enum Der Typ des Inhaltsteils
Möglicher Wert: refusal
Yes

azureChatExtensionConfiguration

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

###Diskriminator für „azureChatExtensionConfiguration“

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureChatExtensionType

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Property Value
Description Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird No
type azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureSearchChatExtensionParameters

Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird

Name Type Description Required Default
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
authentication onYourDataApiKeyAuthenticationOptions, onYourDataSystemAssignedManagedIdentityAuthenticationOptions, onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource No
endpoint string Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. Yes
fields_mapping azureSearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. No
filter string Suchfilter. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No
index_name string Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. Yes
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
query_type azureSearchQueryType Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll No
semantic_configuration string Die zusätzliche semantische Konfiguration für die Abfrage. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

azureSearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
image_vector_fields array Die Namen von Feldern, die Bildvektordaten darstellen. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

azureSearchQueryType

Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

Property Value
Description Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden No
type azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

azureCosmosDBChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden

Name Type Description Required Default
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
authentication onYourDataConnectionStringAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge Yes
container_name string Der Name des Azure Cosmos DB-Ressourcencontainers Yes
database_name string Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource Yes
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No
index_name string Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll Yes
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

azureCosmosDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Yes

elasticsearchChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Elasticsearch, wenn Elasticsearch als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen. No
type azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

elasticsearchChatExtensionParameters

Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen.

Name Type Description Required Default
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
authentication onYourDataKeyAndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource, onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource No
endpoint string Der Endpunkt von Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®. No
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No
index_name string Der Indexname von Elasticsearch®. Yes
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
query_type elasticsearchQueryType Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

elasticsearchIndexFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No

elasticsearchQueryType

Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.

Property Value
Description Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Mongo DB, wenn Mongo DB als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden. No
type azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

mongoDBChatExtensionParameters

Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden.

Name Type Description Required Default
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
app_name string Der Name der Mongo DB-Anwendung. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort. Yes
collection_name string Der Name der Mongo DB-Collection. Yes
database_name string Der Name der Mongo DB-Datenbank. Yes
embedding_dependency onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource Yes
endpoint string Der Name des Mongo DB-Clusterendpunkts. Yes
fields_mapping mongoDBFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource. Yes
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No
index_name string Der Name des Mongo DB-Index. Yes
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

mongoDBFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
vector_fields array Die Namen von Feldern, die Vektordaten darstellen. Yes

pineconeChatExtensionConfiguration

Eine spezifische Darstellung konfigurierbarer Optionen für Pinecone, wenn Pinecone als Azure OpenAI-Chaterweiterung verwendet wird.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“. No
type azureChatExtensionType Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll.
Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Yes

pineconeChatExtensionParameters

Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“.

Name Type Description Required Default
allow_partial_result boolean Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt No False
authentication onYourDataApiKeyAuthenticationOptions Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Die Details einer Vektorisierungsquelle, die von Azure OpenAI für Ihre Daten beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert. Yes
environment string Der Umgebungsname von Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource. Yes
in_scope boolean Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. No
include_contexts array Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. No
index_name string Der Name des Pinecone-Datenbankindex. Yes
max_search_queries integer Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen No
strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. No
top_n_documents integer Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. No

pineconeFieldMappingOptions

Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource.

Name Type Description Required Default
content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. Yes
content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No

onYourDataAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data

Diskriminator für „onYourDataAuthenticationOptions“

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataContextProperty

Die Kontexteigenschaft.

Property Value
Description Die Kontexteigenschaft.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data.

Property Value
Description Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.

Name Type Description Required Default
key string Der für die Authentifizierung zu verwendende API-Schlüssel. No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataConnectionStringAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge

Name Type Description Required Default
connection_string string Die Verbindungszeichenfolge für die Authentifizierung No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Schlüssel- und Schlüssel-ID-Paars von Elasticsearch.

Name Type Description Required Default
key string Der für die Authentifizierung zu verwendende Elasticsearch-Schlüssel No
key_id string Die für die Authentifizierung zu verwendende Elasticsearch-Schlüssel-ID No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines elasticsearch-codierten API-Schlüssels

Name Type Description Required Default
encoded_api_key string Der für die Authentifizierung zu verwendende elasticsearch-codierte API-Schlüssel No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataAccessTokenAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Zugriffstoken

Name Type Description Required Default
access_token string Das Zugriffstoken zur Verwendung bei der Authentifizierung No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.

Name Type Description Required Default
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.

Name Type Description Required Default
managed_identity_resource_id string Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort.

Name Type Description Required Default
password string Das Kennwort. der für die Authentifizierung verwendet wird. No
type onYourDataAuthenticationType Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. Yes
username string Der Benutzername, der für die Authentifizierung verwendet wird. No

onYourDataVectorizationSource

Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren Yes

onYourDataVectorizationSourceType

Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren

Property Value
Description Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions No
dimensions integer Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. No
endpoint string Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im Format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings sein. Der Abfrageparameter der API-Version ist nicht zulässig. No
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren Yes

onYourDataDeploymentNameVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.

Name Type Description Required Default
deployment_name string Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. No
dimensions integer Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. No
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren Yes

onYourDataIntegratedVectorizationSource

Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.

Name Type Description Required Default
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren Yes

onYourDataModelIdVectorizationSource

Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einer Suchdienstmodell-ID. Derzeit nur von Elasticsearch unterstützt.®

Name Type Description Required Default
model_id string Gibt die Modell-ID an, die für die Vektorisierung verwendet werden soll. Diese Modell-ID muss im Suchdienst definiert werden. No
type onYourDataVectorizationSourceType Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren Yes

azureChatExtensionsMessageContext

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.

Name Type Description Required Default
all_retrieved_documents array Alle abgerufenen Dokumente. No
citations array Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. No
intent string Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. No

citation

Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.

Name Type Description Required Default
chunk_id string Die Segment-ID des Zitats. No
content string Der Inhalt des Zitats. Yes
filepath string Der Dateipfad des Zitats. No
rerank_score number Die neue Rangpunktzahl des abgerufenen Dokuments. No
title string Der Titel des Zitats. No
url string Die URL des Zitats. No

retrievedDocument

Das abgerufene Dokument.

Name Type Description Required Default
chunk_id string Die Segment-ID des Zitats. No
content string Der Inhalt des Zitats. Yes
data_source_index integer Der Index der Datenquelle. No
filepath string Der Dateipfad des Zitats. No
filter_reason filterReason Der Filtergrund für das abgerufene Dokument. No
original_search_score number Die ursprüngliche Suchbewertung des abgerufenen Dokuments. No
rerank_score number Die neue Rangpunktzahl des abgerufenen Dokuments. No
search_queries array Die zum Abrufen des Dokuments verwendeten Suchabfragen. No
title string Der Titel des Zitats. No
url string Die URL des Zitats. No

filterReason

Der Filtergrund für das abgerufene Dokument.

Property Value
Description Der Filtergrund für das abgerufene Dokument.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object Die Funktion, die das Modell aufgerufen hat Yes
└- Argumente string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. No
└– Name string Der Name der aufzurufenden Funktion. No
id string Die ID des Toolaufrufs Yes
type toolCallType Der Typ des Toolaufrufs (in diesem Fall: function). Yes

toolCallType

Der Typ des Toolaufrufs (in diesem Fall: function).

Property Value
Description Der Typ des Toolaufrufs (in diesem Fall: function).
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Der Inhalt der Nachricht. No
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Der Inhalt der Nachricht. No
name string Der Inhalt der Nachricht. No
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Möglicher Wert: function
No

createChatCompletionResponse

Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Type Description Required Default
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist. Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Yes
id string Ein eindeutiger Bezeichner für die Chatvervollständigung Yes
model string Das Modell, das für die Chatvervollständigung verwendet wird Yes
object enum Der Objekttyp, der immer chat.completion ist.
Möglicher Wert: chat.completion
Yes
prompt_filter_results promptFilterResults Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. No
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
No
usage completionUsage Nutzungsstatistiken für die Vervollständigungsanforderung No

createChatCompletionStreamResponse

Repräsentiert einen gestreamten Block einer Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.

Name Type Description Required Default
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist.
Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. Yes
id string Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. Yes
model string Das Modell, das die Vervollständigung generiert. Yes
object enum Der Objekttyp, der immer chat.completion.chunk ist.
Möglicher Wert: chat.completion.chunk
Yes
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.
No

chatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.

Name Type Description Required Default
content string Die Inhalte der Blocknachricht. No
function_call object Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└- Argumente string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. No
└– Name string Der Name der aufzurufenden Funktion. No
refusal string Eine vom Modell generierte Ablehnungsmeldung. No
role enum Die Rolle des Autors dieser Nachricht
Mögliche Werte: system, , user, assistanttool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└- Argumente string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. No
└– Name string Der Name der aufzurufenden Funktion. No
id string Die ID des Toolaufrufs No
index integer Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
No

chatCompletionStreamOptions

Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Type Description Required Default
include_usage boolean Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert.
No

chatCompletionChoiceLogProbs

Logarithmierte Wahrscheinlichkeit für die Auswahl

Name Type Description Required Default
content array Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit Yes
refusal array Eine Liste der Nachrichtenablehnungstoken mit Informationen zur logarithmierten Wahrscheinlichkeit. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. Yes
logprob number Die logarithmierte Wahrscheinlichkeit dieses Tokens Yes
token string Das Token. Yes
top_logprobs array Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Yes

chatCompletionResponseMessage

Eine vom Modell generierte Chatvervollständigungsnachricht

Name Type Description Required Default
audio object Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. No
└– Daten string Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format.
No
└– abläuft_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem diese Audioantwort nicht mehr auf dem Server für die Verwendung in mehrstufigen Dialogen zugänglich ist.
No
└– ID string Eindeutiger Bezeichner für diese Audioausgabe. No
└– Transkript string Transkript der vom Modell generierten Audiodaten. No
content string Der Inhalt der Nachricht. Yes
context azureChatExtensionsMessageContext Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist. No
function_call chatCompletionFunctionCall Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
refusal string Eine vom Modell generierte Ablehnungsmeldung. Yes
role chatCompletionResponseMessageRole Die Rolle des Antwortnachrichterstellers Yes
tool_calls array Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. No

chatCompletionResponseMessageRole

Die Rolle des Antwortnachrichterstellers

Property Value
Description Die Rolle des Antwortnachrichterstellers
Type string
Values assistant

chatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Mögliche Werte für diese Komponente:

chatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
function object Yes
└– Name string Der Name der aufzurufenden Funktion. No
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Yes

ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Für diese Komponente sind keine Eigenschaften definiert.

PredictionContent

Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.

Name Type Description Required Default
content Zeichenfolge oder Array Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll. Wenn generierte Token mit diesem Inhalt übereinstimmen, kann die gesamte Modellantwort viel schneller zurückgegeben werden. Yes
type enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.
Möglicher Wert: content
Yes

chatCompletionMessageToolCalls

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

Für diese Komponente sind keine Eigenschaften definiert.

ChatCompletionModalities

Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]

Für diese Komponente sind keine Eigenschaften definiert.

chatCompletionFunctionCall

Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.

Name Type Description Required Default
arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. Yes
name string Der Name der aufzurufenden Funktion. Yes

completionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Type Description Required Default
completion_tokens integer Anzahl der Token in der generierten Vervollständigung Yes
completion_tokens_details object Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. No
└– akzeptierte_Vorhersage_Token integer Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. No
└– audio_tokens integer Vom Modell generierte Audioeingabetoken. No
└– reasoning_tokens integer Vom Modell generierte Tokens zur Begründung. No
└– rejected_prediction_tokens integer Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss nicht angezeigt wurde. Diese Token werden jedoch, wie Begründungstoken, weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. No
prompt_tokens integer Anzahl der Token im Prompt. Yes
prompt_tokens_details object Details der Prompttoken. No
└– audio_tokens integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. No
└– zwischengespeicherte_Token integer Die Anzahl der zwischengespeicherten Prompttoken. No
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Yes

FunctionParameters

Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.

Für diese Komponente sind keine Eigenschaften definiert.

FunctionObject

Name Type Description Required Default
description string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Yes
parameters FunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.

Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
No
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. No False

ResponseFormatText

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: text
Möglicher Wert: text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats: json_object
Möglicher Wert: json_object
Yes

ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└– Beschreibung string Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll. No
└– Name string Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. No
└- Schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. No
└– streng boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. No False
type enum Der Typ des zu definierenden Antwortformats: json_schema
Möglicher Wert: json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Übersetzungsanforderung

Name Type Description Required Default
file string Die zu übersetzende Audiodatei Yes
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
temperature number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

audioResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war

Name Type Description Required Default
text string Übersetzter oder transkribierter Text Yes

audioVerboseResponse

Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Die Art von Audiotask No
text string Übersetzter oder transkribierter Text Yes
words array No

audioResponseFormat

Definiert das Format der Ausgabe

Property Value
Description Definiert das Format der Ausgabe
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transkriptionsanforderung

Name Type Description Required Default
file string Das zu transkribierende Audiodateiobjekt Yes
language string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format audioResponseFormat Definiert das Format der Ausgabe No
temperature number Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen. response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

audioSegment

Transkriptions- oder Übersetzungssegment

Name Type Description Required Default
avg_logprob number Durchschnittliche logarithmierte Wahrscheinlichkeit No
compression_ratio number Komprimierungsverhältnis No
end number Der Offset für das Segmentende No
id integer Segmentbezeichner No
no_speech_prob number Wahrscheinlichkeit von „keine Sprache“ No
seek number Der Offset des Segments No
start number Der Offset für den Segmentbeginn. No
temperature number Temperature. No
text string Segmenttext No
tokens array Token des Texts No

audioWord

Transkriptions- oder Übersetzungswort.

Name Type Description Required Default
end number Der Offset für das Wortende. No
start number Der Offset für den Wortbeginn. No
word string Word No

createSpeechRequest

Sprachanforderung

Name Type Description Required Default
input string Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. Yes
response_format enum Das Format für die Audiosynthetisierung.
Mögliche Werte: mp3, , opus, aacflac, , , wavpcm
No
speed number Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus. 1.0 ist die Standardeinstellung. No 1.0
voice enum Die Stimme, die für die Sprachsynthese verwendet werden soll.
Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer
Yes

imageQuality

Die Qualität des zu generierenden Bilds

Property Value
Description Die Qualität des zu generierenden Bilds
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Das Format, in dem die generierten Bilder zurückgegeben werden.

Property Value
Description Das Format, in dem die generierten Bilder zurückgegeben werden.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für Serienmodelle unterstützt.

Property Value
Description Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt.
Type string
Default png
Values png
jpeg

imageSize

Die Größe der generierten Bilder.

Property Value
Description Die Größe der generierten Bilder.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt.

Property Value
Description Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt.
Type string
Default vivid
Values vivid
natural

imageBackground

Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt.

Property Value
Description Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. No auto
n integer Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. No 100
output_format imagesOutputFormat Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. No png
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle und 4000 Zeichen für dall-e-3 Yes
quality imageQuality Die Qualität des zu generierenden Bilds No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. Wird nur für DALL-E 3 unterstützt. No url
size imageSize Die Größe der generierten Bilder. No auto
style imageStyle Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt. No vivid
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No

imageEditsRequest

Name Type Description Required Default
image Zeichenfolge oder Array Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 25 MB ist. Yes
mask string Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. No
n integer Die Anzahl der zu generierenden Bilder. No 1
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. Yes
quality imageQuality Die Qualität des zu generierenden Bilds No auto
response_format imagesResponseFormat Das Format, in dem die generierten Bilder zurückgegeben werden. No url
size imageSize Die Größe der generierten Bilder. No auto
user string Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. No

generateImagesResponse

Name Type Description Required Default
created integer Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde Yes
data array Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war Yes
usage imageGenerationsUsage Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle. No

imageResult

Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.

Name Type Description Required Default
b64_json string Das base64-codierte Bild No
content_filter_results dalleContentFilterResults Informationen zu den Ergebnissen der Inhaltsfilterung No
prompt_filter_results dalleFilterResults Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. No
revised_prompt string Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde No
url string Die Bild-URL No

imageGenerationsUsage

Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. No
input_tokens_details object Eine detaillierte Aufschlüsselung der Eingabetoken. No
└– image_tokens integer Die Anzahl der Bildtoken No
└- text_tokens integer Die Anzahl der Texttoken. No
output_tokens integer Die Anzahl der Ausgabetoken. No
total_tokens integer Die Gesamtzahl der verwendeten Token. No

line

Ein Inhaltszeilenobjekt, bestehend aus einer zusammenhängenden Sequenz von Inhaltselementen (z. B. Wörter und Auswahlmarkierungen).

Name Type Description Required Default
spans array Ein Array von span-Objekten, die erkannte Objekte und die zugehörigen Angaben zum umgebenden Rechteck darstellen. Yes
text string Yes

span

Ein span-Objekt, das ein erkanntes Objekt und die zugehörigen Angaben zum umgebenden Rechteck darstellt.

Name Type Description Required Default
length integer Die Länge des span-Objekts in Zeichen, gemessen in Unicode-Codepunkten. Yes
offset integer Der Zeichenoffset innerhalb des Texts, der angibt, wo das span-Objekt beginnt. Dieser Offset ist als die Position des ersten Zeichens des span-Objekts definiert. Gezählt wird dabei vom Anfang des Texts in Unicode-Codepunkten. Yes
polygon array Ein Array von Objekten, die Punkte in dem Polygon darstellen, das das erkannte Objekt umschließt. Yes
text string Der Textinhalt des span-Objekts, das das erkannte Objekt darstellt. Yes

runCompletionUsage

Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress, queued usw.) befindet.

Name Type Description Required Default
completion_tokens integer Die Anzahl von Vervollständigungstoken, die im Laufe der Ausführung verwendet wurden. Yes
prompt_tokens integer Die Anzahl von Prompttoken, die im Laufe der Ausführung verwendet wurden. Yes
total_tokens integer Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). Yes

runStepCompletionUsage

Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat.

Name Type Description Required Default
completion_tokens integer Die Anzahl von Vervollständigungstoken, die im Laufe des Ausführungsschritts verwendet wurden. Yes
prompt_tokens integer Die Anzahl von Prompttoken, die im Laufe des Ausführungsschritts verwendet wurden. Yes
total_tokens integer Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). Yes

assistantsApiResponseFormatOption

Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

Mögliche Werte für diese Komponente:

assistantsApiResponseFormat

Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Bei json_object darf nur der function-Typ tools an die Ausführung übergeben werden. Bei text kann das Modell Text oder einen beliebigen benötigten Wert zurückgeben.

Name Type Description Required Default
type string Muss text oder json_object sein. No text

Typenumeration: AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Stellt einen Assistenten (assistant) dar, der das Modell aufrufen und Tools verwenden kann.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Assistent erstellt wurde. Yes
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen.
Yes
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Yes
model string Die ID des zu verwendenden Modells. Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
Yes
object string Der Objekttyp, der immer assistant ist. Yes
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, file_search oder function sein.
Yes []
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1

Objektenumeration: AssistantObjectType

Value Description
assistant Der Objekttyp (immer „assistant“).

createAssistantRequest

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string Yes
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
└– Vektorspeicher array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.
No
instructions string Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string No
name string Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein.
No []
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objektenumeration: DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Die Art des Tools, das definiert wird: code_interpreter Yes

Typenumeration: assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Überschreibungen für das Dateisuchtool No
└– max_num_results integer Die maximale Anzahl von Ergebnissen, die das Dateisuchtool ausgeben soll. Der Standardwert ist 20 für GPT-4*-Modelle und 5 für GPT-3.5-Turbo. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen.

Beachten Sie, dass das Dateisuchtool möglicherweise weniger als max_num_results Ergebnisse ausgibt.
No
type string Die Art des Tools, das definiert wird: file_search Yes

Typenumeration: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Die Art des Tools, das definiert wird: file_search Yes

Typenumeration: assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object Die Funktionsdefinition. Yes
└– Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
└– Name string Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. No
└- Parameter chatCompletionFunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung guide/ und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. No
type string Die Art des Tools, das definiert wird: function Yes

Typenumeration: assistantToolsFunction

Value Description
function

truncationObject

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern.

Name Type Description Required Default
last_messages integer Die Anzahl der neuesten Nachrichten aus dem Thread, wenn der Kontext für die Ausführung konstruiert wird. No
type string Die für den Thread zu verwendende Kürzungsstrategie. Der Standardwert lautet auto. Bei Verwendung von last_messages wird der Thread auf die n neuesten Nachrichten im Thread gekürzt. Bei Verwendung von auto werden Nachrichten in der Mitte des Threads gelöscht, um der Kontextlänge des Modells (max_prompt_tokens) zu entsprechen. Yes

Typenumeration: TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.

Mögliche Werte für diese Komponente:

assistantsNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.

Name Type Description Required Default
function object No
└– Name string Der Name der aufzurufenden Funktion. No
type string Der Typ des Tools. Wenn der Typ function ist, muss der Funktionsname festgelegt werden. Yes

Typenumeration: AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Stellt einen Ausführungslauf auf einem Thread dar.

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der für diese Ausführung verwendet wird Yes
cancelled_at integer Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgebrochen wurde. Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde Yes
expires_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft Yes
failed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
incomplete_details object Details zum Grund für die unvollständige Ausführung. Ist null, wenn die Ausführung nicht unvollständig ist. Yes
└– Grund string Der Grund für die unvollständige Ausführung. Gibt an, welcher spezifische Tokengrenzwert im Laufe der Ausführung erreicht wurde. No
instructions string Die Anweisungen, die der Assistent für diese Ausführung verwendet hat Yes
last_error object Der letzte Fehler im Zusammenhang mit dieser Ausführung. Ist null, wenn keine Fehler vorliegen. Yes
└– Code string Einer der folgenden Werte: server_error oder rate_limit_exceeded. No
└– Nachricht string Eine für Menschen lesbare Beschreibung des Fehlers. No
max_completion_tokens integer Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden
Yes
max_prompt_tokens integer Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden
Yes
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Yes
model string Das Modell, das der Assistent für diese Ausführung verwendet hat. Yes
object string Der Objekttyp, der immer thread.run ist. Yes
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
required_action object Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. Yes
└– submit_tool_outputs object Details zu den Toolausgaben, die zum Forsetzen dieser Ausführung erforderlich sind No
└- tool_calls array Eine Liste mit den relevanten Toolaufrufen. No
└– Typ enum Dieser Wert ist vorerst immer submit_tool_outputs.
Möglicher Wert: submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Yes
started_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde Yes
status string Der Status der Ausführung, entweder queued, in_progress, requires_action, cancelling, cancelled, failed, completed oder expired Yes
temperature number Die für diese Ausführung verwendete Temperatur für die Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. No
thread_id string Die ID der Threads, die als Teil dieser Ausführung ausgeführt wurden. Yes
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Yes
tools array Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat Yes []
top_p number Der für diese Ausführung verwendete Wert für die Nukleus-Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. No
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Yes
usage runCompletionUsage Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress, queued usw.) befindet. Yes

Objektenumeration: runObjectType

Value Description
thread.run Der Ausführungsobjekttyp (immer „thread.run“).

Statusenumeration: RunObjectStatus

Value Description
queued Der Zustand „queued“
in_progress Der Zustand „in_progress“
requires_action Der Zustand „required_action“
cancelling Der Zustand „cancelling“
cancelled Der Zustand „cancelled“
failed Der Zustand „failed“
completed Der Zustand „completed“
expired Der Zustand „abgelaufen“

createRunRequest

Name Type Description Required Default
additional_instructions string Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. No
additional_messages array Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. No
assistant_id string Die ID des Assistenten, der für diese Ausführung verwendet werden soll Yes
instructions string Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string Die ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
tool_outputs array Eine Liste der Tools, für die die Ausgaben übermittelt werden Yes

runToolCallObject

Toolaufrufobjekte

Name Type Description Required Default
function object Die Funktionsdefinition. Yes
└- Argumente string Die Argumente, von denen das Modell erwartet, dass Sie sie an die Funktion übergeben. No
└– Name string Der Name der Funktion. No
id string Die ID des Toolaufrufs Auf diese ID muss verwiesen werden, wenn Sie die Toolausgaben mit „Toolausgaben übermitteln“ zum Ausführen des Endpunkts übermitteln. Yes
type string Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Dieser Wert ist vorerst immer function. Yes

Typenumeration: RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der für diese Ausführung verwendet werden soll Yes
instructions string Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
max_completion_tokens integer Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
max_prompt_tokens integer Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details.
No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
model string Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. No
parallel_tool_calls ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No True
response_format assistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.

Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.

Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
No
stream boolean Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht.
No
stream_options chatCompletionStreamOptions Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
No None
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
No
tool_resources object Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden.
No
tools array Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. No
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
No 1
truncation_strategy truncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. No

threadObject

Stellt einen Thread dar, der Nachrichten enthält.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Yes
object string Der Objekttyp, der immer thread ist. Yes
tool_resources object Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
Yes
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No

Objektenumeration: ThreadObjectType

Value Description
thread Die Art des Threadobjekts (immer thread).

createThreadRequest

Name Type Description Required Default
messages array Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No
└– Vektorspeicher array Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No

modifyThreadRequest

Name Type Description Required Default
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
tool_resources object Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert.
No
└– code_interpreter object No
└– file_ids array Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein.
No []
└– Dateisuche object No
└– vector_store_ids array Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objektenumeration: DeleteThreadResponseObjectState

Value Description
thread.deleted Der Zustand des gelöschten Threadantwortobjekts (thread.deleted)

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Stellt eine Nachricht in einem Thread dar.

Name Type Description Required Default
assistant_id string Falls zutreffend, die ID des Assistenten, der diese Nachricht erstellt hat. Yes
attachments array Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt wurden. Yes
completed_at integer Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht vervollständigt wurde. Yes
content array Der Inhalt der Nachricht im Textarray und/oder Bildern. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht erstellt wurde. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
incomplete_at integer Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht als unvollständig markiert wurde. Yes
incomplete_details object Gibt im Falle einer unvollständigen Nachricht an, warum die Nachricht unvollständig ist. Yes
└– Grund string Der Grund, warum die Nachricht unvollständig ist. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Yes
object string Der Objekttyp, der immer thread.message ist. Yes
role string Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant. Yes
run_id string Falls zutreffend, die ID der Ausführung, die der Erstellung dieser Nachricht zugeordnet ist. Yes
status string Der Status der Nachricht (entweder in_progress, incomplete oder completed). Yes
thread_id string Die Threads-ID, zu der diese Nachricht gehört. Yes

Objektenumeration: MessageObjectType

Value Description
thread.message Der Nachrichtenobjekttyp (thread.message).

Statusenumeration: MessageObjectStatus

Value Description
in_progress
incomplete
completed

Rollenenumeration: MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden).

Name Type Description Required Default
delta object Das Delta, das die Felder enthält, die sich in der Nachricht geändert haben Yes
└– Inhalt array Der Inhalt der Nachricht im Textarray und/oder Bildern. No
└– Rolle string Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant. No
id string Der Bezeichner der Nachricht, auf den in API-Endpunkten verwiesen werden kann Yes
object string Der Objekttyp, der immer thread.message.delta ist. Yes

Objektenumeration: MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. No
content string Der Inhalt der Nachricht. Yes
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
role string Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind:
- user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Yes

Rollenenumeration: CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objektenumeration: DeleteMessageResponseObject

Value Description
thread.message.deleted Der Status des Antwortobjekts für das Löschen einer Nachricht

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Type Description Required Default
image_file object Yes
└– file_id string Die Datei-ID des Bilds im Nachrichteninhalt. No
type string Immer image_file. Yes

Typenumeration: MessageContentImageFileObjectType

Value Description
image_file Der Bilddateityp des Nachrichteninhalts.

messageContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Type Description Required Default
text object Yes
└– Anmerkungen array No
└– Wert string Die Daten, aus denen der Text besteht. No
type string Immer text. Yes

Typenumeration: messageContentTextObjectType

Value Description
text Der Objekttyp des Texts im Nachrichteninhalt.

messageContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „retrieval“ für die Dateisuche verwendet.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└– file_id string Die ID der spezifischen Datei, aus der das Zitat stammt. No
start_index integer Yes
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. Yes
type string Immer file_citation. Yes

Typenumeration: FileCitationObjectType

Value Description
file_citation Der Objekttyp des Dateizitats.

messageContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└– file_id string Die ID der generierten Datei. No
start_index integer Yes
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. Yes
type string Immer file_path. Yes

Typenumeration: FilePathObjectType

Value Description
file_path Der Objekttyp des Dateipfads.

messageDeltaContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Type Description Required Default
image_file object No
└– file_id string Die Datei-ID des Bilds im Nachrichteninhalt. No
index integer Der Index des Inhaltsteils in der Nachricht. Yes
type string Immer image_file. Yes

Typenumeration: MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Type Description Required Default
index integer Der Index des Inhaltsteils in der Nachricht. Yes
text object No
└– Anmerkungen array No
└– Wert string Die Daten, aus denen der Text besteht. No
type string Immer text. Yes

Typenumeration: MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „file_search“ für die Dateisuche verwendet.

Name Type Description Required Default
end_index integer No
file_citation object No
└– file_id string Die ID der spezifischen Datei, aus der das Zitat stammt. No
└- Zitat string Das spezifische Zitat in der Datei. No
index integer Der Index der Anmerkung im Textinhaltsteil. Yes
start_index integer No
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. No
type string Immer file_citation. Yes

Typenumeration: MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.

Name Type Description Required Default
end_index integer No
file_path object No
└– file_id string Die ID der generierten Datei. No
index integer Der Index der Anmerkung im Textinhaltsteil. Yes
start_index integer No
text string Der Text im Nachrichteninhalt, der ersetzt werden muss. No
type string Immer file_path. Yes

Typenumeration: MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Stellt einen Schritt in einer Ausführung dar.

Name Type Description Required Default
assistant_id string Die ID des Assistenten, der dem Ausführungsschritt zugeordnet ist Yes
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgebrochen wurde Yes
completed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgeschlossen wurde Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt erstellt wurde Yes
expired_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgelaufen ist. Ein Schritt gilt als abgelaufen, wenn die übergeordnete Ausführung abgelaufen ist. Yes
failed_at integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt fehlgeschlagen ist Yes
id string Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann Yes
last_error object Der letzte Fehler im Zusammenhang mit diesem Ausführungsschritt. Ist null, wenn keine Fehler vorliegen. Yes
└– Code string Einer der folgenden Werte: server_error oder rate_limit_exceeded. No
└– Nachricht string Eine für Menschen lesbare Beschreibung des Fehlers. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Yes
object string Der Objekttyp, der immer assistant.run.step ist. Yes
run_id string Die ID der Ausführung, zu der dieser Ausführungsschritt gehört Yes
status string Der Status der Ausführung (in_progress, cancelled, failed, completed oder expired). Yes
step_details runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject Die Details des Ausführungsschritts Yes
thread_id string Die ID der ausgeführten Threads. Yes
type string Die Art des Ausführungsschritts (message_creation oder tool_calls). Yes

Objektenumeration: RunStepObjectType

Value Description
assistant.run.step Der Objekttyp, der immer assistant.run.step ist.

Typenumeration: RunStepObjectType

Value Description
message_creation Der Ausführungsschritt „message_creation“
tool_calls Der Ausführungsschritt „tool_calls“

Statusenumeration: RunStepObjectStatus

Value Description
in_progress Der Ausführungsstatus „in_progress“
cancelled Der Ausführungsstatus „cancelled“
failed Der Ausführungsstatus „cancelled“
completed Der Ausführungsstatus „cancelled“
expired Der Ausführungsstatus „cancelled“

runStepDeltaObject

Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden).

Name Type Description Required Default
delta object Das Delta mit den Feldern, die sich im Ausführungsschritt geändert haben. Yes
└– step_details runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject Die Details des Ausführungsschritts No
id string Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann Yes
object string Der Objekttyp, der immer thread.run.step.delta ist. Yes

Objektenumeration: RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Details zur Nachrichterstellung durch den Ausführungsschritt.

Name Type Description Required Default
message_creation object Yes
└– Nachrichten-ID string Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. No
type string Immer message_creation. Yes

Typenumeration: RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Details zur Nachrichterstellung durch den Ausführungsschritt.

Name Type Description Required Default
message_creation object No
└– Nachrichten-ID string Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. No
type string Immer message_creation. Yes

Typenumeration: RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Type Description Required Default
tool_calls array Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter, retrieval oder function.
Yes
type string Immer tool_calls. Yes

Typenumeration: RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Type Description Required Default
tool_calls array Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter, file_search oder function.
No
type string Immer tool_calls. Yes

Typenumeration: RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.

Name Type Description Required Default
code_interpreter object Die Definition des Code-Interpreter-Tools. Yes
└– Eingabe string Die Eingabe für den Code-Interpreter-Toolaufruf. No
└─ Ausgaben array Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bilder (image). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt. No
id string Die ID des Toolaufrufs Yes
type string Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter. Yes

Typenumeration: RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.

Name Type Description Required Default
code_interpreter object Die Definition des Code-Interpreter-Tools. No
└– Eingabe string Die Eingabe für den Code-Interpreter-Toolaufruf. No
└─ Ausgaben array Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bilder (image). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt. No
id string Die ID des Toolaufrufs No
index integer Der Index des Toolaufrufs im Toolaufruf-Array. Yes
type string Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter. Yes

Typenumeration: RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.

Name Type Description Required Default
logs string Die Textausgabe des Code-Interpreter-Toolaufrufs. Yes
type string Immer logs. Yes

Typenumeration: RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.

Name Type Description Required Default
index integer Der Index der Ausgabe im Ausgaben-Array. Yes
logs string Die Textausgabe des Code-Interpreter-Toolaufrufs. No
type string Immer logs. Yes

Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└– file_id string Die Datei-ID des Bilds. No
type string Immer image. Yes

Typenumeration: RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└– file_id string Die Datei-ID des Bilds. No
index integer Der Index der Ausgabe im Ausgaben-Array. Yes
type string Immer image. Yes

Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Ist vorerst immer ein leeres Objekt. Yes
└- Ergebnisse array Die Ergebnisse der Dateisuche. No
id string Die ID des Toolaufrufobjekts. Yes
type string Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer file_search. Yes

Typenumeration: RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Eine Ergebnisinstanz der Dateisuche.

Name Type Description Required Default
content array Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur einbezogen, wenn er über den Include-Abfrageparameter angefordert wird. No
file_id string Die ID der Datei, in der das Ergebnis gefunden wurde. Yes
file_name string Der Name der Datei, in der das Ergebnis gefunden wurde. Yes
score number Die Ergebnisbewertung. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Ist vorerst immer ein leeres Objekt. Yes
id string Die ID des Toolaufrufobjekts. No
index integer Der Index des Toolaufrufs im Toolaufruf-Array. Yes
type string Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer retrieval. Yes

Typenumeration: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Die Definition der aufgerufenen Funktion. Yes
└- Argumente string Die an die Funktion übergebenen Argumente. No
└– Name string Der Name der Funktion. No
└─ Ausgabe string Die Ausgabe der Funktion. Ist null, wenn die Ausgaben noch nicht übermittelt wurden. No
id string Die ID des Toolaufrufobjekts. Yes
type string Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function. Yes

Typenumeration: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Die Definition der aufgerufenen Funktion. No
└- Argumente string Die an die Funktion übergebenen Argumente. No
└– Name string Der Name der Funktion. No
└─ Ausgabe string Die Ausgabe der Funktion. Ist null, wenn die Ausgaben noch nicht übermittelt wurden. No
id string Die ID des Toolaufrufobjekts. No
index integer Der Index des Toolaufrufs im Toolaufruf-Array. Yes
type string Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function. Yes

Typenumeration: RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Type Description Required Default
anchor string Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at. Yes
days integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Yes

Ankerenumeration: VectorStoreExpirationAfterAnchor

Value Description
last_active_at Der Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird.

vectorStoreObject

Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Name Type Description Required Default
created_at integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. Yes
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
expires_at integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. No
file_counts object Yes
└– abgebrochen integer Die Anzahl von Dateien, die abgebrochen wurden. No
└– abgeschlossen integer Die Anzahl erfolgreich verarbeiteter Dateien. No
└– fehlgeschlagen integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten. No
└─ in Bearbeitung integer Die Anzahl von Dateien, die derzeit verarbeitet werden. No
└– Gesamtsumme integer Die Gesamtanzahl der Dateien. No
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
last_active_at integer Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. Yes
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
Yes
name string Der Name des Vektorspeichers. Yes
object enum Der Objekttyp, der immer vector_store ist.
Möglicher Wert: vector_store
Yes
status string Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist. Yes
usage_bytes integer Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. Yes

Statusenumeration: VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. No
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
metadata object 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.
No
name string Der Name des Vektorspeichers. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objektenumeration: DeleteVectorStoreResponseObject

Value Description
vector_store.deleted Der Status des Antwortobjekts für das Löschen eines Vektorspeichers

vectorStoreFileObject

Eine Liste der an einen Vektorspeicher angefügten Dateien.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. No
created_at integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
last_error object Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null, wenn keine Fehler vorliegen. Yes
└– Code string Einer von der folgenden Werte: server_error oder invalid_file oder unsupported_file. No
└– Nachricht string Eine für Menschen lesbare Beschreibung des Fehlers. No
object string Der Objekttyp, der immer vector_store.file ist. Yes
status string Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist. Yes
usage_bytes integer Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angefügt ist. Yes

Objektenumeration: VectorStoreFileObjectType

Value Description
vector_store.file

Statusenumeration: VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.

Name Type Description Required Default
type string Immer other. Yes

Typenumeration: OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Immer static. Yes

Typenumeration: StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.

Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf.
Yes
max_chunk_size_tokens integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096. Yes

autoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.

Name Type Description Required Default
type enum Immer auto.
Möglicher Wert: auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Immer static.
Möglicher Wert: static
Yes

chunkingStrategyRequestParam

Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet.

Mögliche Werte für diese Komponente:

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No
file_id string Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Objektenumeration: DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Name Type Description Required Default
created_at integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. Yes
file_counts object Yes
└– abgebrochen integer Die Anzahl von Dateien, die abgebrochen wurden. No
└– abgeschlossen integer Die Anzahl verarbeiteter Dateien. No
└– fehlgeschlagen integer Die Anzahl von Dateien, die nicht verarbeitet werden konnten. No
└─ in Bearbeitung integer Die Anzahl von Dateien, die derzeit verarbeitet werden. No
└– Gesamtsumme integer Die Gesamtanzahl der Dateien. No
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Yes
object string Der Objekttyp, der immer vector_store.file_batch ist. Yes
status string Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed). Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angefügt ist. Yes

Objektenumeration: VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Statusenumeration: VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. No
file_ids array Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Yes

assistantStreamEvent

Stellt ein Ereignis dar, das beim Streamen einer Ausführung ausgegeben wird.

Jedes Ereignis in einem vom Server gesendeten Ereignisdatenstrom verfügt über eine event-Eigenschaft und über eine data-Eigenschaft:

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Ereignisse werden ausgegeben, wenn ein neues Objekt erstellt wird, in einen neuen Zustand übergeht oder in Teilen (Deltas) gestreamt wird. Beispielsweise wird thread.run.created ausgegeben, wenn eine neue Ausführung erstellt wird, und thread.run.completed, wenn eine Ausführung abgeschlossen wird. Wenn sich ein Assistent entscheidet, während einer Ausführung eine Nachricht zu erstellen, wird Folgendes in der angegebenen Reihenfolge ausgegeben: thread.message.created event, ein thread.message.in_progress-Ereignis, mehrere thread.message.delta-Ereignisse und schließlich ein thread.message.completed-Ereignis.

Im Laufe der Zeit kommen ggf. noch weitere Ereignisse hinzu. Daher empfiehlt es sich, unbekannte Ereignisse ordnungsgemäß in Ihrem Code zu behandeln.

Mögliche Werte für diese Komponente:

threadStreamEvent

Mögliche Werte für diese Komponente:

thread.created

Tritt auf, wenn ein neuer Thread erstellt wird.

Name Type Description Required Default
data threadObject Stellt einen Thread dar, der Nachrichten enthält. Yes
event string Yes

Daten:threadObject

Ereignisenumeration: ThreadStreamEventEnum

Value Description
thread.created Das Threaderstellungsereignis.

runStreamEvent

Mögliche Werte für diese Komponente:

thread.run.created

Tritt auf, wenn eine neue Ausführung erstellt wird.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Tritt auf, wenn eine Ausführung in den queued-Status wechselt.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Tritt auf, wenn eine Ausführung in einen Status vom Typ in_progress wechselt.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Tritt auf, wenn eine Ausführung in den requires_action-Status wechselt.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Tritt auf, wenn eine Ausführung abgeschlossen ist.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Tritt auf, wenn eine Ausführung fehlschlägt.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Tritt auf, wenn eine Ausführung in den cancelling-Status wechselt.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Tritt auf, wenn eine Ausführung abgebrochen wird.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Tritt auf, wenn eine Ausführung verfällt.

Name Type Description Required Default
data runObject Stellt einen Ausführungslauf auf einem Thread dar. Yes
event string Yes

Daten:runObject

Ereignisenumeration: RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Mögliche Werte für diese Komponente:

thread.run.step.created

Tritt auf, wenn ein Ausführungsschritt erstellt wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Yes
event string Yes

Daten:runStepObject

Ereignisenumeration: RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Tritt auf, wenn ein Ausführungsschritt in den in_progress-Zustand übergeht.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Yes
event string Yes

Daten:runStepObject

Ereignisenumeration: RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Tritt auf, wenn Teile eines Ausführungsschritts gestreamt werden.

Name Type Description Required Default
data runStepDeltaObject Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden).
Yes
event string Yes

Daten:runStepDeltaObject

Ereignisenumeration: RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Yes
event string Yes

Daten:runStepObject

Ereignisenumeration: RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Tritt auf, wenn ein Ausführungsschritt fehlschlägt.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Yes
event string Yes

Daten:runStepObject

Ereignisenumeration: RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Tritt auf, wenn ein Ausführungsschritt abgebrochen wird.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Yes
event string Yes

Daten:runStepObject

Ereignisenumeration: RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Tritt auf, wenn ein Ausführungsschritt verfällt.

Name Type Description Required Default
data runStepObject Stellt einen Schritt in einer Ausführung dar.
Yes
event string Yes

Daten:runStepObject

Ereignisenumeration: RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Mögliche Werte für diese Komponente:

thread.message.created

Tritt auf, wenn eine Nachricht erstellt wird.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Thread dar. Yes
event string Yes

Daten:messageObject

Ereignisenumeration: MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Tritt auf, wenn eine Nachricht in einen Zustand vom Typ in_progress wechselt.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Thread dar. Yes
event string Yes

Daten:messageObject

Ereignisenumeration: MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Tritt auf, wenn Teile einer Nachricht gestreamt werden.

Name Type Description Required Default
data messageDeltaObject Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden).
Yes
event string Yes

Daten:messageDeltaObject

Ereignisenumeration: MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Tritt auf, wenn eine Nachricht abgeschlossen ist.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Thread dar. Yes
event string Yes

Daten:messageObject

Ereignisenumeration: MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.

Name Type Description Required Default
data messageObject Stellt eine Nachricht in einem Thread dar. Yes
event string Yes

Daten:messageObject

Ereignisenumeration: MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Mögliche Werte für diese Komponente:

Click

Ein Klickvorgang.

Name Type Description Required Default
button enum Gibt an, welche Maustaste während des Klickens gedrückt wurde. left, right, wheel, back oder forward

Mögliche Werte: left, , rightwheel, , backforward
Yes
type enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf click gesetzt.

Möglicher Wert: click
Yes
x integer Die x-Koordinate, an der der Klick aufgetreten ist.
Yes
y integer Die y-Koordinate, an der der Klick aufgetreten ist.
Yes

CodeInterpreterFileOutput

Die Ausgabe eines Code-Interpreter-Toolaufrufs, bei der es sich um eine Datei handelt

Name Type Description Required Default
files array Yes
type enum Der Typ der Ausgabedatei des Codeinterpreters. Immer files.

Möglicher Wert: files
Yes

CodeInterpreterTextOutput

Die Ausgabe eines Code-Interpreter-Toolaufrufs, bei der es sich um Text handelt

Name Type Description Required Default
logs string Die Protokolle des Codedolmetscher-Toolaufrufs.
Yes
type enum Der Typ der Textausgabe des Codedolmetschers. Immer logs.

Möglicher Wert: logs
Yes

CodeInterpreterTool

Ein Tool, das Code ausführt.

Name Type Description Required Default
file_ids array Die IDs der Dateien, auf denen der Code ausgeführt werden soll.
Yes
type enum Der Typ des Codedolmetschertools. Immer code_interpreter.

Möglicher Wert: code_interpreter
Yes

CodeInterpreterToolCall

Ein Toolaufruf zum Ausführen von Code.

Name Type Description Required Default
code string Der auszuführende Code.
Yes
id string Die eindeutige ID des Aufrufs des Code-Interpreter-Tools.
Yes
results array Die Ergebnisse des Code-Interpreter-Toolaufrufs.
Yes
status enum Der Status des Code-Interpreter-Werkzeugaufrufs.

Mögliche Werte: in_progress, , interpretingcompleted
Yes
type enum Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.

Möglicher Wert: code_interpreter_call
Yes

CodeInterpreterToolOutput

Mögliche Werte für diese Komponente:

ComparisonFilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Type Description Required Default
key string Der Schlüssel für den Vergleich mit dem Wert Yes
type enum Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte
- eq: entspricht
- ne: ungleich
- gt:größer als
- gte: größer oder gleich
- lt:weniger als
- lte: kleiner oder gleich

Mögliche Werte: eq, , ne, gtgte, , , ltlte
Yes
value Zeichenfolge oder Zahl oder boolescher Wert Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Yes

CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Type Description Required Default
filters array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Yes
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Yes

ComputerAction

Mögliche Werte für diese Komponente:

ComputerScreenshotImage

Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.

Name Type Description Required Default
file_id string Der Bezeichner einer hochgeladenen Datei, die den Screenshot enthält. No
image_url string Die URL des Screenshotbilds. No
type enum Gibt den Ereignistyp an. Für einen Computer-Screenshot ist diese Eigenschaft immer auf computer_screenshot.

Möglicher Wert: computer_screenshot
Yes

ComputerTool

Ein Tool, das einen virtuellen Computer steuert.

Name Type Description Required Default
display_height number Die Höhe der Computeranzeige.
Yes
display_width number Die Breite der Computeranzeige.
Yes
environment enum Der Typ der zu steuernden Computerumgebung.

Mögliche Werte: mac, , windows, ubuntubrowser
Yes
type enum Der Typ des Tools zur Computernutzung. Immer computer_use_preview.

Möglicher Wert: computer-use-preview
Yes

ComputerToolCall

Ein Toolaufruf eines von einem Computer verwendeten Tools

Name Type Description Required Default
action ComputerAction Yes
call_id string Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird
Yes
id string Die eindeutige ID des Computeraufrufs. Yes
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computeranruf.
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ des Computeraufrufs. Immer computer_call.
Möglicher Wert: computer_call
Yes

ComputerToolCallOutput

Die Ausgabe eines Computertoolaufrufs

Name Type Description Required Default
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden.
No
call_id string Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat.
Yes
id string Die ID der Ausgabe des Computertoolsaufrufs
No
output ComputerScreenshotImage Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed oder incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.

Möglicher Wert: computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden.
No
call_id string Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat.
Yes
id string Die eindeutige ID der Ausgabe des Computeraufruftools
Yes
output ComputerScreenshotImage Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed oder incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.

Möglicher Wert: computer_call_output
Yes

ComputerToolCallSafetyCheck

Eine ausstehende Sicherheitsüberprüfung für den Computertelefonanruf.

Name Type Description Required Default
code string Der Typ der ausstehenden Sicherheitsüberprüfung. Yes
id string Die ID der ausstehenden Sicherheitsprüfung Yes
message string Details zur ausstehenden Sicherheitsüberprüfung. Yes

Content

Mehr modaler Eingabe- und Ausgabeinhalt.

Mögliche Werte für diese Komponente:

Coordinate

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Type Description Required Default
x integer Die x-Koordinate.
Yes
y integer Die y-Koordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Modell, das zum Generieren der Antworten verwendet wird. No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input Zeichenfolge oder Array Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Yes
instructions string Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein.

Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.
No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle. No
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll.
No True
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. No False
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ Format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools
No
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und vorheriger Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell
die Antwort ab, um das Kontextfenster durch Entfernen von Eingabeelementen in der Mitte der Unterhaltung anzupassen.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

DoubleClick

Eine Doppelklickaktion

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf double_click gesetzt.

Möglicher Wert: double_click
Yes
x integer Die x-Koordinate, an der der Doppelklick aufgetreten ist.
Yes
y integer Die y-Koordinate, an der der Doppelklick aufgetreten ist.
Yes

Drag

Eine Ziehaktion

Name Type Description Required Default
path array Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf drag gesetzt.

Möglicher Wert: drag
Yes

EasyInputMessage

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Type Description Required Default
content string oder InputMessageContentList Text-, Bild- oder Audioeingabe für das Modell, um eine Antwort zu generieren.
Kann auch frühere Assistentenantworten enthalten.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer der folgenden Werte: user, assistant, system oder developer.

Mögliche Werte: user, , assistant, systemdeveloper
Yes
type enum Der Typ der Nachrichteneingabe. Immer message.

Möglicher Wert: message
No

FileCitation

Ein Verweis auf eine Datei.

Name Type Description Required Default
file_id string Die ID der Datei.
Yes
index integer Der Index der Datei in der Liste der Dateien.
Yes
type enum Der Typ des Dateizitats Immer file_citation.

Möglicher Wert: file_citation
Yes

FilePath

Ein Pfad zu einer Datei.

Name Type Description Required Default
file_id string Die ID der Datei.
Yes
index integer Der Index der Datei in der Liste der Dateien.
Yes
type enum Der Typ des Dateipfads. Immer file_path.

Möglicher Wert: file_path
Yes

FileSearchRanker

Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet.

Property Value
Description Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet.
Type string
Values auto
default_2024_08_21

FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen.
No
ranking_options object Sortieroptionen für die Suche. No
└– Ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
No
└─ Punktschwelle number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1.
Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben.
No 0
type enum Der Typ des Dateisuchtools. Immer file_search.

Möglicher Wert: file_search
Yes
vector_store_ids array Die IDs der zu durchsuchenden Vektorspeicher.
Yes

FileSearchToolCall

Die Ergebnisse eines Dateisuchtoolaufrufs.

Name Type Description Required Default
id string Die eindeutige ID des Aufrufs des Dateisuchtools.
Yes
queries array Die Zum Suchen nach Dateien verwendeten Abfragen.
Yes
results array Die Ergebnisse des Aufrufs des Dateisuchtools.
No
status enum Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress, searching, incomplete oder failed,

Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Yes
type enum Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.

Möglicher Wert: file_search_call
Yes

FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.

Name Type Description Required Default
description string Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll.
No
name string Der Name der aufzurufenden Funktion.
Yes
parameters object Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt.
Yes
strict boolean Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standardwert: true.
Yes
type enum Der Typ des Funktionstools. Immer function.

Möglicher Wert: function
Yes

FunctionToolCall

Ein Toolaufruf zum Ausführen einer Funktion.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen.
Yes
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs.
Yes
id string Die eindeutige ID des Aufrufs des Funktionswerkzeugs.
Yes
name string Der Name der auszuführenden Funktion.
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ des Funktionswerkzeuganrufs. Immer function_call.

Möglicher Wert: function_call
Yes

FunctionToolCallOutput

Die Ausgabe eines Funktionstoolaufrufs

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs.
Yes
id string Die eindeutige ID der Ausgabe des Funktionstoolaufrufs Aufgefüllt, wenn dieses Element über die API zurückgegeben wird.
No
output string Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs.
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.

Möglicher Wert: function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs.
Yes
id string Die eindeutige ID der Ausgabe des Funktionsaufruftools
Yes
output string Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs.
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.

Möglicher Wert: function_call_output
Yes

includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
Property Value
Description Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Eine Audioeingabe für das Modell.

Name Type Description Required Default
data string Base64-codierte Audiodaten.
Yes
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.

Mögliche Werte: mp3, wav
Yes
type enum Der Typ des Eingabeelements. Immer input_audio.

Möglicher Wert: input_audio
Yes

InputContent

Mögliche Werte für diese Komponente:

InputFile

Eine Dateieingabe für das Modell.

Name Type Description Required Default
file_data string Der Inhalt der Datei, die an das Modell gesendet werden soll.
No
file_id string Die ID der Datei, die an das Modell gesendet werden soll.
No
filename string Der Name der Datei, die an das Modell gesendet werden soll.
No
type enum Der Typ des Eingabeelements. Immer input_file.

Möglicher Wert: input_file
Yes

InputImage

Eine Bildeingabe für das Modell.

Name Type Description Required Default
detail enum Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low oder auto. Wird standardmäßig auf auto festgelegt.

Mögliche Werte: high, , lowauto
Yes
file_id string Die ID der Datei, die an das Modell gesendet werden soll.
No
image_url string Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollständig qualifizierte URL oder ein base64-codiertes Bild innerhalb einer Daten-URL.
No
type enum Der Typ des Eingabeelements. Immer input_image.

Möglicher Wert: input_image
Yes

InputItem

Mögliche Werte für diese Komponente:

InputMessage

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden.

Name Type Description Required Default
content InputMessageContentList Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält
types.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, system oder developer.

Mögliche Werte: user, , systemdeveloper
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Nachrichteneingabe. Immer auf message festgelegt.

Möglicher Wert: message
No

InputMessageContentList

Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhaltstypen enthält.

Für diese Komponente sind keine Eigenschaften definiert.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält
types.
Yes
id string Die eindeutige ID der Nachrichteneingabe.
Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, system oder developer.

Mögliche Werte: user, , systemdeveloper
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ der Nachrichteneingabe. Immer auf message festgelegt.

Möglicher Wert: message
No

InputText

Eine Texteingabe für das Modell.

Name Type Description Required Default
text string Die Texteingabe für das Modell.
Yes
type enum Der Typ des Eingabeelements. Immer input_text.

Möglicher Wert: input_text
Yes

Item

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Mögliche Werte für diese Komponente:

ItemReference

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Type Description Required Default
id string Die ID des zu referenzierenden Elements.
Yes
type enum Der Typ des zu referenzierenden Elements. Immer item_reference.

Möglicher Wert: item_reference
Yes

ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Mögliche Werte für diese Komponente:

KeyPress

Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.

Name Type Description Required Default
keys array Die Tastenkombination, die das Modell gedrückt haben möchte. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen.
Yes
type enum Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress gesetzt.

Möglicher Wert: keypress
Yes

Metadata

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Für diese Komponente sind keine Eigenschaften definiert.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Modell, das zum Generieren der Antworten verwendet wird. No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
No 1
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

Move

Aktion zur Änderung der Mauszeigerposition

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf move gesetzt.

Möglicher Wert: move
Yes
x integer Die x-Koordinate, zu der verschoben werden soll.
Yes
y integer Die y-Koordinate, zu der verschoben werden soll.
Yes

OutputAudio

Eine Audioausgabe aus dem Modell.

Name Type Description Required Default
data string Base64-codierte Audiodaten aus dem Modell.
Yes
transcript string Die Transkription der Audiodaten aus dem Modell.
Yes
type enum Der Typ des Ausgabeaudios. Immer output_audio.

Möglicher Wert: output_audio
Yes

OutputContent

Mögliche Werte für diese Komponente:

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen.
Yes
call_id string Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird
Yes
content array Begründung der Textinhalte.
Yes
id string Der eindeutige Bezeichner des Argumentationsinhalts.
Yes
name string Der Name der auszuführenden Funktion.
Yes
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computeranruf.
Yes
queries array Die Zum Suchen nach Dateien verwendeten Abfragen.
Yes
results array Die Ergebnisse des Aufrufs des Dateisuchtools.
No
role enum Die Rolle der Ausgabemeldung. Immer assistant.

Möglicher Wert: assistant
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ des Objekts. Immer reasoning.

Möglicher Wert: reasoning
Yes

OutputMessage

Eine Ausgabemeldung aus dem Modell.

Name Type Description Required Default
content array Der Inhalt der Ausgabenachricht.
Yes
id string Die eindeutige ID der Ausgabenachricht.
Yes
role enum Die Rolle der Ausgabemeldung. Immer assistant.

Möglicher Wert: assistant
Yes
status enum Der Status der Nachrichteneingabe. Einer von in_progress, completed oder incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ der Ausgabemeldung. Immer message.

Möglicher Wert: message
Yes

OutputText

Eine Textausgabe aus dem Modell.

Name Type Description Required Default
annotations array Die Anmerkungen der Textausgabe
Yes
text string Die Textausgabe aus dem Modell.
Yes
type enum Der Typ des Ausgabetexts. Immer output_text.

Möglicher Wert: output_text
Yes

RealtimeSessionCreateRequest

Objektkonfiguration der Echtzeitsitzung.

Name Type Description Required Default
input_audio_format enum Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.
Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden.
Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird.
No
└– Typ enum Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription, standardmäßig ausgeschaltet und kann auf null eingestellt werden, um es auszuschalten, wenn es einmal eingeschaltet ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└– Sprache string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ Modell string Das Modell, das für die Transkription verwendet werden soll: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1.
No
└– Eingabeaufforderung string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
instructions string Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann zu Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "freundlich verhalten", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "schnell sprechen", "Emotionen in die Stimme einfügen", "häufig lachen"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.

Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist.
No
max_response_output_tokens ganze Zahl oder Zeichenfolge Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 ein, um die Ausgabetoken zu begrenzen, oder verwenden Sie inf für die maximal verfügbaren Token eines bestimmten Modells. Wird standardmäßig auf inf festgelegt.
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
model string Der Name der Bereitstellung, die für diese Sitzung verwendet wird
No
output_audio_format enum Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Bei pcm16 wird eine Abtastrate von 24 kHz für die Ausgabeaudiodaten verwendet.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
temperature number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen.
No 0.8
tool_choice string Gibt an, wie das Modell Tools auswählt. Optionen sind auto, none, requiredoder geben Sie eine Funktion an.
No auto
tools array Tools (Funktionen), die für das Modell verfügbar sind. No
turn_detection object Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└– create_response boolean Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt.
No True
└– Eifer enum Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht medium.

Mögliche Werte: low, , medium, highauto
No
└– interrupt_response boolean Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt.
No True
└– prefix_padding_ms integer Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms
No
└– Dauer_der_Stille_in_ms integer Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└– Schwellenwert number Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└– Typ enum Art der Kurvenerkennung.

Mögliche Werte: server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Eine neue Realtime-Sitzungskonfiguration mit einem kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute.

Name Type Description Required Default
client_secret object Kurzlebiger Schlüssel, der von der API zurückgegeben wird. Yes
└– abläuft_am integer Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab.
No
└– Wert string Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte.
No
input_audio_format string Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription, standardmäßig ausgeschaltet und kann auf null eingestellt werden, um es auszuschalten, wenn es einmal eingeschaltet ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Transkriptionen werden asynchron über Whisper durchgeführt und sollten als grobe Orientierung betrachtet werden, anstatt als die vom Modell verstandene Darstellung.
No
└─ Modell string Das Modell, das für die Transkription verwendet werden soll, whisper-1 ist das einzige derzeit unterstützte Modell.
No
instructions string Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann bezüglich der Antwortinhalte und -formate instruiert werden (z. B. "sei sehr prägnant", "sei freundlich", "hier sind Beispiele für gute Antworten") und das Audiobehavior (z. B. "sprechen Sie schnell", "Emotionen in die Stimme einfügen", "häufig lachen"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist.
No
max_response_output_tokens ganze Zahl oder Zeichenfolge Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 ein, um die Ausgabetoken zu begrenzen, oder verwenden Sie inf für die maximal verfügbaren Token eines bestimmten Modells. Wird standardmäßig auf inf festgelegt.
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
output_audio_format string Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw.
No
temperature number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8.
No
tool_choice string Gibt an, wie das Modell Tools auswählt. Optionen sind auto, none, requiredoder geben Sie eine Funktion an.
No
tools array Tools (Funktionen), die für das Modell verfügbar sind. No
turn_detection object Konfiguration für die Turnerkennung. Kann auf null eingestellt werden, um es auszuschalten. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
No
└– prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms
No
└– Dauer_der_Stille_in_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└– Schwellenwert number Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└– Typ string Typ der Sprecherwechselerkennung. Derzeit wird nur server_vad unterstützt.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Echtzeit-Transkriptionssitzungsobjektkonfiguration.

Name Type Description Required Default
include array Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:
- item.input_audio_transcription.logprobs
No
input_audio_format enum Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.

Mögliche Werte: pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.
Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden.
Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird.
No
└– Typ enum Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Mögliche Werte: near_field, far_field
No
input_audio_transcription object Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst.
No
└– Sprache string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ Modell enum Das Modell, das für die Transkription verwendet werden soll, umfasst die aktuellen Optionen gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1.

Mögliche Werte: gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└– Eingabeaufforderung string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments.
Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.
Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
turn_detection object Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.
Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben.
No
└– create_response boolean Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└– Eifer enum Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren. low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren. auto ist der Standardwert und entspricht medium.

Mögliche Werte: low, , medium, highauto
No
└– interrupt_response boolean Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar.
No True
└– prefix_padding_ms integer Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms
No
└– Dauer_der_Stille_in_ms integer Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└– Schwellenwert number Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└– Typ enum Art der Kurvenerkennung.

Mögliche Werte: server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Eine neue Realtime-Transkriptionssitzungskonfiguration.

Wenn eine Sitzung über die REST-API auf dem Server erstellt wird, enthält das Sitzungsobjekt auch einen kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.

Name Type Description Required Default
client_secret object Kurzlebiger Schlüssel, der von der API zurückgegeben wird. Nur vorhanden, wenn die Sitzung über die REST-API auf dem Server erstellt wird.
Yes
└– abläuft_am integer Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab.
No
└– Wert string Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte.
No
input_audio_format string Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
No
input_audio_transcription object Konfiguration des Transkriptionsmodells.
No
└– Sprache string Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert.
No
└─ Modell enum Das Modell, das für die Transkription verwendet werden soll. Kann gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15oder whisper-1sein.

Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1
No
└– Eingabeaufforderung string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen.
No
modalities Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest.
No
turn_detection object Konfiguration für die Turnerkennung. Kann auf null eingestellt werden, um es auszuschalten. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert.
No
└– prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms
No
└– Dauer_der_Stille_in_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No
└– Schwellenwert number Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren.
No
└– Typ string Typ der Sprecherwechselerkennung. Derzeit wird nur server_vad unterstützt.
No

Reasoning

Konfigurationsoptionen für Begründungsmodelle.

Name Type Description Required Default
effort ReasoningEffort Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Yes medium
summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer der folgenden Werte: concise oder detailed.

Mögliche Werte: concise, detailed
No

ReasoningItem

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird.

Name Type Description Required Default
content array Begründung der Textinhalte.
Yes
id string Der eindeutige Bezeichner des Argumentationsinhalts.
Yes
status enum Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.

Mögliche Werte: in_progress, , completedincomplete
No
type enum Der Typ des Objekts. Immer reasoning.

Möglicher Wert: reasoning
Yes

Refusal

Eine Ablehnung des Modells

Name Type Description Required Default
refusal string Die Erklärung der Ablehnung des Modells
Yes
type enum Die Art der Ablehnung. Immer refusal.

Möglicher Wert: refusal
Yes

response

Name Type Description Required Default
created_at number Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort.
Yes
error ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
Yes
id string Eindeutiger Bezeichner für diese Antwort
Yes
incomplete_details object Details dazu, warum die Antwort unvollständig ist.
Yes
└– Grund enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
instructions string Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein.

Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
Yes
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für Antworten generiert werden können, einschließlich sichtbarer Ausgabetoken und Konversationsstatus.
No
metadata Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
model string Modell, das zum Generieren der Antworten verwendet wird. Yes
object enum Der Objekttyp dieser Ressource, immer auf response festgelegt.

Möglicher Wert: response
Yes
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Yes
output_text string SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.
Yes True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle.
No
status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed, in_progress oder incomplete.

Mögliche Werte: completed, , failed, in_progressincomplete
No
temperature number Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Yes 1
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ Format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
Yes
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools
Yes
top_p number Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Yes 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No
usage ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. .
No

ResponseAudioDeltaEvent

Wird ausgegeben, wenn eine partielle Audioantwort vorhanden ist.

Name Type Description Required Default
delta string Ein Block der Base64-codierten Antwortaudiobytes
Yes
type enum Typ des Ereignisses Immer response.audio.delta.

Möglicher Wert: response.audio.delta
Yes

ResponseAudioDoneEvent

Wird ausgegeben, wenn die Audioantwort abgeschlossen ist.

Name Type Description Required Default
type enum Typ des Ereignisses Immer response.audio.done.

Möglicher Wert: response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Wird ausgegeben, wenn eine partielle Transkription von Audio vorhanden ist.

Name Type Description Required Default
delta string Die partielle Transkription der Audioantwort.
Yes
type enum Typ des Ereignisses Immer response.audio.transcript.delta.

Möglicher Wert: response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Wird ausgegeben, wenn die vollständige Audiotranskription abgeschlossen ist.

Name Type Description Required Default
type enum Typ des Ereignisses Immer response.audio.transcript.done.

Möglicher Wert: response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeausschnitt vom Codedolmetscher hinzugefügt wird.

Name Type Description Required Default
delta string Der partielle Codeausschnitt, der vom Codedolmetscher hinzugefügt wird.
Yes
output_index integer Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird
Yes
type enum Typ des Ereignisses Immer response.code_interpreter_call.code.delta.

Möglicher Wert: response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Wird ausgegeben, wenn die Codeausschnittausgabe vom Codedolmetscher abgeschlossen wird.

Name Type Description Required Default
code string Die endgültige Ausgabe des Codeausschnitts durch den Code-Interpreter.
Yes
output_index integer Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird
Yes
type enum Typ des Ereignisses Immer response.code_interpreter_call.code.done.

Möglicher Wert: response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
output_index integer Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird
Yes
type enum Typ des Ereignisses Immer response.code_interpreter_call.completed.

Möglicher Wert: response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
output_index integer Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird
Yes
type enum Typ des Ereignisses Immer response.code_interpreter_call.in_progress.

Möglicher Wert: response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
output_index integer Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird
Yes
type enum Typ des Ereignisses Immer response.code_interpreter_call.interpreting.

Möglicher Wert: response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.

Name Type Description Required Default
response response Yes
type enum Typ des Ereignisses Immer response.completed.

Möglicher Wert: response.completed
Yes

ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Type Description Required Default
content_index integer Der Index des hinzugefügten Inhaltsteils.
Yes
item_id string Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
part OutputContent Yes
type enum Typ des Ereignisses Immer response.content_part.added.

Möglicher Wert: response.content_part.added
Yes

ResponseContentPartDoneEvent

Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, der abgeschlossen ist.
Yes
item_id string Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde.
Yes
part OutputContent Yes
type enum Typ des Ereignisses Immer response.content_part.done.

Möglicher Wert: response.content_part.done
Yes

ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Type Description Required Default
response response Yes
type enum Typ des Ereignisses Immer response.created.

Möglicher Wert: response.created
Yes

ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Type Description Required Default
code ResponseErrorCode Der Fehlercode für die Antwort.
Yes
message string Eine für Menschen lesbare Beschreibung des Fehlers.
Yes

ResponseErrorCode

Der Fehlercode für die Antwort.

Property Value
Description Der Fehlercode für die Antwort.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Type Description Required Default
code string Der Fehlercode.
Yes
message string Die Fehlermeldung.
Yes
param string Der Fehlerparameter.
Yes
type enum Typ des Ereignisses Immer error.

Möglicher Wert: error
Yes

ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Type Description Required Default
response response Yes
type enum Typ des Ereignisses Immer response.failed.

Möglicher Wert: response.failed
Yes

ResponseFileSearchCallCompletedEvent

Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird.
Yes
output_index integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde
Yes
type enum Typ des Ereignisses Immer response.file_search_call.completed.

Möglicher Wert: response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird.
Yes
output_index integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde
Yes
type enum Typ des Ereignisses Immer response.file_search_call.in_progress.

Möglicher Wert: response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird.
Yes
output_index integer Der Index des Ausgabeelements, das der Dateisuchaufruf sucht.
Yes
type enum Typ des Ereignisses Immer response.file_search_call.searching.

Möglicher Wert: response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.

Name Type Description Required Default
delta string Das hinzugefügte Argumentdelta des Funktionsaufrufs
Yes
item_id string Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden.
Yes
output_index integer Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird
Yes
type enum Typ des Ereignisses Immer response.function_call_arguments.delta.

Möglicher Wert: response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Wird ausgegeben, wenn Funktionsaufrufargumente finalisiert werden.

Name Type Description Required Default
arguments string Die Funktionsaufrufargumente. Yes
item_id string Die ID des Elements. Yes
output_index integer Der Index des Ausgabeelements. Yes
type enum
Möglicher Wert: response.function_call_arguments.done
Yes

ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.

Name Type Description Required Default
response response Yes
type enum Typ des Ereignisses Immer response.in_progress.

Möglicher Wert: response.in_progress
Yes

ResponseIncompleteEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig beendet wird.

Name Type Description Required Default
response response Yes
type enum Typ des Ereignisses Immer response.incomplete.

Möglicher Wert: response.incomplete
Yes

responseItemList

Eine Liste der Antwortelemente.

Name Type Description Required Default
data array Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. Yes
first_id string Die ID des ersten Elements in der Liste. Yes
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Yes
last_id string Die ID des letzten Elements in der Liste. Yes
object enum Der Typ des zurückgegebenen Objekts muss sein list.
Möglicher Wert: list
Yes

ResponseModalities

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:

["text", "audio"]

Für diese Komponente sind keine Eigenschaften definiert.

ResponseModalitiesTextOnly

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Diese API unterstützt bald andere Ausgabemodalitäten, einschließlich Audio und Bilder.

Für diese Komponente sind keine Eigenschaften definiert.

ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Type Description Required Default
item OutputItem Yes
output_index integer Der Index des Ausgabeelements, das hinzugefügt wurde.
Yes
type enum Typ des Ereignisses Immer response.output_item.added.

Möglicher Wert: response.output_item.added
Yes

ResponseOutputItemDoneEvent

Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.

Name Type Description Required Default
item OutputItem Yes
output_index integer Der Index des Ausgabeelements, das als erledigt markiert wurde.
Yes
type enum Typ des Ereignisses Immer response.output_item.done.

Möglicher Wert: response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein.

Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für Antworten generiert werden können, einschließlich sichtbarer Ausgabetoken und Konversationsstatus.
No
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
reasoning Reasoning Konfigurationsoptionen für Begründungsmodelle.
No
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
No
└─ Format TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
No
tool_choice ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

- Integrierte Tools
No
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.

Mögliche Werte: auto, disabled
No

ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird.
Yes
delta string Der Verweigerungstext, der hinzugefügt wird.
Yes
item_id string Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird.
Yes
output_index integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird.
Yes
type enum Typ des Ereignisses Immer response.refusal.delta.

Möglicher Wert: response.refusal.delta
Yes

ResponseRefusalDoneEvent

Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dass der Ablehnungstext abgeschlossen wird
Yes
item_id string Die ID des Ausgabeelements, bei dem der Ablehnungstext finalisiert wurde.
Yes
output_index integer Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen wird
Yes
refusal string Der endgültige Ablehnungstext.
Yes
type enum Typ des Ereignisses Immer response.refusal.done.

Möglicher Wert: response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Der Index der hinzugefügten Anmerkung.
Yes
arguments string Die Funktionsaufrufargumente. Yes
code string Der Fehlercode.
Yes
code_interpreter_call CodeInterpreterToolCall Ein Toolaufruf zum Ausführen von Code.
Yes
content_index integer Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird
Yes
delta string Das Textdelta, das hinzugefügt wurde
Yes
item OutputItem Das Ausgabeelement, das als erledigt markiert wurde.
Yes
item_id string Die ID des Ausgabeelements, dessen Textinhalt abgeschlossen ist.
Yes
message string Die Fehlermeldung.
Yes
output_index integer Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird
Yes
param string Der Fehlerparameter.
Yes
part OutputContent Der fertige Inhaltsteil.
Yes
refusal string Der endgültige Ablehnungstext.
Yes
response response Die Antwort, die unvollständig war.
Yes
text string Der textinhalt, der abgeschlossen ist.
Yes
type enum Typ des Ereignisses Immer response.output_text.done.

Möglicher Wert: response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Wird ausgegeben, wenn eine Textanmerkung hinzugefügt wird.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Der Index der hinzugefügten Anmerkung.
Yes
content_index integer Der Index des Inhaltsteils, dem die Textanmerkung hinzugefügt wurde.
Yes
item_id string Die ID des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde.
Yes
type enum Typ des Ereignisses Immer response.output_text.annotation.added.

Möglicher Wert: response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde
Yes
delta string Das Textdelta, das hinzugefügt wurde
Yes
item_id string Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde.
Yes
output_index integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde
Yes
type enum Typ des Ereignisses Immer response.output_text.delta.

Möglicher Wert: response.output_text.delta
Yes

ResponseTextDoneEvent

Wird gesendet, wenn der Textinhalt finalisiert ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird
Yes
item_id string Die ID des Ausgabeelements, dessen Textinhalt abgeschlossen ist.
Yes
output_index integer Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird
Yes
text string Der textinhalt, der abgeschlossen ist.
Yes
type enum Typ des Ereignisses Immer response.output_text.done.

Möglicher Wert: response.output_text.done
Yes

ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. Yes
output_tokens integer Die Anzahl der Ausgabetoken. Yes
output_tokens_details object Eine detaillierte Aufschlüsselung der Ausgabetoken. Yes
└– reasoning_tokens integer Die Anzahl der Begründungstoken No
total_tokens integer Die Gesamtzahl der verwendeten Token. Yes

Screenshot

Screenshotaktion

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf screenshot festgelegt.

Möglicher Wert: screenshot
Yes

Scroll

Eine Scrollaktion

Name Type Description Required Default
scroll_x integer Der horizontale Scrollabstand
Yes
scroll_y integer Der vertikale Scrollabstand
Yes
type enum Gibt den Ereignistyp an. Beim Scrollen wird diese Eigenschaft immer auf scroll gesetzt.

Möglicher Wert: scroll
Yes
x integer Die X-Koordinate, an der das Scrollen erfolgt ist
Yes
y integer Die y-Koordinate, bei der das Scrollen stattfindet.
Yes

StopConfiguration

Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.

Mögliche Werte für diese Komponente:

TextResponseFormatConfiguration

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Mögliche Werte für diese Komponente:

TextResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu strukturierten Ausgaben.

Name Type Description Required Default
description string Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll.
No
name string Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.
No
schema ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Yes
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist.
No False
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Yes

Tool

Mögliche Werte für diese Komponente:

ToolChoiceFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
name string Der Name der aufzurufenden Funktion. Yes
type enum Bei Funktionsaufrufen ist der Typ immer function.
Möglicher Wert: function
Yes

ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.

Property Value
Description Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.

required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Type string
Values none
auto
required

ToolChoiceTypes

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.

Name Type Description Required Default
type enum Der Typ des gehosteten Tools, den das Modell verwenden soll. Zulässige Werte sind:
- file_search
- computer_use_preview

Mögliche Werte: file_search, computer_use_preview
Yes

Type

Eine Aktion zum Eingeben von Text.

Name Type Description Required Default
text string Der einzugebende Text.
Yes
type enum Gibt den Ereignistyp an. Bei einer Typaktion wird diese Eigenschaft immer auf type gesetzt.

Möglicher Wert: type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Yes

UrlCitation

Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.

Name Type Description Required Default
end_index integer Der Index des letzten Zeichens des URL-Zitats in der Nachricht.
Yes
start_index integer Der Index des ersten Zeichens des URL-Zitats in der Nachricht.
Yes
title string Der Titel der Webressource.
Yes
type enum Der Typ des URL-Zitats. Immer url_citation.

Möglicher Wert: url_citation
Yes
url string Die URL der Webressource.
Yes

VectorStoreFileAttributes

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.

Für diese Komponente sind keine Eigenschaften definiert.

VectorStoreFileContentResponse

Stellt den analysierten Inhalt einer Vektorspeicherdatei dar.

Name Type Description Required Default
data array Analysierter Inhalt der Datei. Yes
has_more boolean Gibt an, ob mehr Inhaltsseiten abgerufen werden sollen. Yes
next_page string Das Token für die nächste Seite, falls vorhanden. Yes
object enum Der Objekttyp, der immer vector_store.file_content.page ist.
Möglicher Wert: vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters ComparisonFilter oder CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. No 10
query Zeichenfolge oder Array Eine Abfragezeichenfolge für eine Suche Yes
ranking_options object Sortieroptionen für die Suche. No
└– Ranker enum Mögliche Werte: auto, default-2024-11-15 No
└─ Punktschwelle number No 0
rewrite_query boolean Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Der von der Suche zurückgegebene Textinhalt. Yes
type enum Der Inhaltstyp.
Möglicher Wert: text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Yes
content array Inhaltsblöcke aus der Datei. Yes
file_id string Die ID der Vektorspeicherdatei. Yes
filename string Der Name der Vektorspeicherdatei. Yes
score number Der Ähnlichkeitswert für das Ergebnis. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array Die Liste der Suchergebniselemente. Yes
has_more boolean Gibt an, ob weitere Ergebnisse abgerufen werden sollen. Yes
next_page string Das Token für die nächste Seite, falls vorhanden. Yes
object enum Der Objekttyp, der immer vector_store.search_results.page ist.
Möglicher Wert: vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Für diese Komponente sind keine Eigenschaften definiert.

Wait

Eine Warteaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf wait gesetzt.

Möglicher Wert: wait
Yes

ReasoningEffort

Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

Property Value
Description Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Type string
Default medium
Values low
medium
high

errorEvent

Tritt auf, wenn ein Fehler auftritt. Dies kann aufgrund eines internen Serverfehlers oder eines Timeouts eintreten.

Name Type Description Required Default
data error Yes
event string Yes

Ereignisenumeration: ErrorEventEnum

Value Description
error

doneEvent

Tritt auf, wenn ein Datenstrom endet.

Name Type Description Required Default
data string Yes
event string Yes

Ereignisenumeration: DoneEventEnum

Value Description
done

Datenenumeration: DoneEventDataEnum

Value Description
[DONE]

Nächste Schritte

Erfahren Sie mehr über Modelle und die Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.