Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieses Dokument bezieht sich auf das Microsoft Foundry(klassische) Portal.
🔍 Zeigen Sie die Microsoft Foundry-Dokumentation (neu) an, um mehr über das neue Portal zu erfahren.
Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.
API-Spezifikationen
Die Verwaltung von Azure OpenAI-Modellen und -Ressourcen und die Interaktion mit ihnen ist auf drei primäre API-Oberflächen aufgeteilt:
- Steuerebene
- Datenebene: Erstellung
- Datenebene: Rückschluss
Jede API-Oberfläche/-Spezifikation kapselt eine andere Gruppe von Azure OpenAI-Funktionen. Jede API verfügt über individuelle Vorschau-API-Releases und stabile/allgemein verfügbare API-Releases. Vorschaureleases folgen derzeit in der Regel einem monatlichen Rhythmus.
Important
Es gibt jetzt eine neue Vorschau-Ableitungs-API. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.
| API | Neuestes Vorschaurelease | Neuestes allgemein verfügbares Release | Specifications | Description |
|---|---|---|---|---|
| Steuerungsebene | 2025-07-01-preview |
2025-06-01 |
Spezifikationsdateien | Die Steuerungsebenen-API wird für Vorgänge wie das Erstellen von Ressourcen, modellbasierte Bereitstellung und andere Ressourcenverwaltungsaufgaben auf höherer Ebene verwendet. Die Steuerungsebene steuert auch, was mit Komponenten wie Azure Resource Manager, Bicep, Terraform und der Azure CLI möglich ist. |
| Datenebene | v1 preview |
v1 |
Spezifikationsdateien | Die Datenebenen-API steuert Ableitungs- und Erstellungsvorgänge. |
Authentication
Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.
API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den
api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als
Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token mussBearervorangestellt werden. Beispiel:Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Datenebene: Rückschluss
Der Rest des Artikels behandelt die 2025-04-01-preview Vorschauversion der Azure OpenAI-Datenebenen-Ableitungsspezifikation.
Eine Dokumentation für das neueste allgemein verfügbare API-Release der Datenebenen-API für Rückschlüsse finden Sie hier.
Vervollständigungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen – – best_of muss größer als n sein.Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
| echo | boolean | Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. | No | False |
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
No | None |
| logprobs | integer | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn beispielsweise logprobs 5 ist, gibt die API eine Liste der 5 höchstwahrscheinlichen Token zurück. Die API gibt immer das logprob Beispieltoken zurück, daher kann es bis zu logprobs+1 Elementen in der Antwort geben.Der Höchstwert für logprobs ist 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl von Token, die in der Vervollständigung generiert werden können. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
| prompt | Zeichenfolge oder Array | Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden. Beachten Sie, dass <|endoftext|> das Dokumenttrennzeichen ist, das das Modell während des Trainings sieht. Wenn also keine Eingabeaufforderung angegeben wird, generiert das Modell, als ob es sich am Anfang eines neuen Dokuments befindet. |
Yes | |
| seed | integer | Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Array | Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. | No | |
| stream | boolean | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird.
Python-Beispielcode |
No | False |
| suffix | string | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt. |
No | None |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Antworten: Statuscode: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Einbettungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine-Learning-Modellen und anderen Algorithmen problemlos verarbeitet werden kann.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | Die Bereitstellungs-ID des Modells, das bereitgestellt wurde. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| encoding_format | string | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. |
No | |
| input | Zeichenfolge oder Array | Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für text-embedding-ada-002), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder weniger umfassen. |
Yes | |
| input_type | string | Eingabetyp der zu verwendenden Einbettungssuche | No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Chatvervollständigungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Erstellt eine Vervollständigung für die Chatnachricht
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"] angefordert wird. |
No | |
| └─ Format | enum | Gibt das Audioformat der Ausgabe an. Muss eine von wav, mp3, flac, opus oder pcm16 sein. Mögliche Werte: wav, , mp3flac, , opuspcm16 |
No | |
| └– Stimme | enum | Gibt den Stimmentyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
No | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
| function_call | string oder chatCompletionFunctionCallOption | Zugunsten von tool_choice eingestellt.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
No | None |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. |
No | False |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. |
No | |
| messages | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode | Yes | |
| metadata | object | Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. | No | |
| modalities | ChatCompletionModalities | Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:["text", "audio"] |
No | |
| n | integer | Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Sie werden basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt. Behalten Sie n als 1, um die Kosten zu minimieren. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| prediction | PredictionContent | Konfiguration für eine vorhergesagte Ausgabe, was die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am verbreitetsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. | No | |
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
| reasoning_effort | enum |
Nur o1-Modelle Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.Mögliche Werte: low, , mediumhigh |
No | |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.Einstellen auf { "type": "json_schema", "json_schema": {...} } aktiviert Strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Array | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. |
No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatvervollständigungsanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | |
| stream | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird.
Python-Beispielcode |
No | False |
| stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | None |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch gestalten. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Meldung generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
| tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. |
No | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No | |
| user_security_context | userSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das ausgewählte Modell.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Daten und der systemseitig zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Bildvektordaten.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung auf der Grundlage von Azure Search-Vektordaten, der vorherigen Assistentennachricht und der systemseitig zugewiesenen verwalteten Identität.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die angegebene Azure Cosmos DB-Instanz
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die angegebene Mongo DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die angegebene Elasticsearch-Instanz.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Erstellt eine Vervollständigung für die angegebene Pinecone-Ressource.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkriptionen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transkribiert Audio in die Eingabesprache
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | Die ID des zu verwendenden Modells. Die Optionen sind gpt-4o-transcribe: , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, , whisper-1und gpt-4o-transcribe-diarize. |
Yes | |
| file | string | Das zu transkribierende Audiodateiobjekt | Yes | |
| language | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
| temperature | number | Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen.
response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn das Antwortformat eines von text, vtt oder srt war). |
Examples
Example
Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ruft transkribierten Text und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Übersetzungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transkribiert Audioeingaben und übersetzt sie in englischen Text
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die zu übersetzende Audiodatei | Yes | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
| temperature | number | Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Transkribierter Text im Ausgabeformat (wenn response_format eines der Formate Text, vtt oder srt war). |
Examples
Example
Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Ruft transkribierten Text in englischer Sprache und zugehörige Metadaten aus bereitgestellten Sprachaudiodaten ab
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Antworten: Statuscode: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Sprache: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Generiert Audio aus dem Eingabetext.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. | Yes | |
| response_format | enum | Das Format für die Audiosynthetisierung. Mögliche Werte: mp3, , opus, aacflac, , , wavpcm |
No | |
| speed | number | Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus.
1.0 ist die Standardeinstellung. |
No | 1.0 |
| voice | enum | Die Stimme, die für die Sprachsynthese verwendet werden soll. Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
Yes |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Synthetisiert Audio aus dem bereitgestellten Text.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Antworten: Statuscode: 200
{
"body": "101010101"
}
Bildgenerierungen: Erstellen
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Erzeugt eine Reihe von Bildern aus einer Textbeschriftung auf einem bestimmten DALL-E- oder gpt-image-1-Serienmodell
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. | No | auto |
| n | integer | Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. | No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. | No | 100 |
| output_format | imagesOutputFormat | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. | No | png |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serie und 4000 Zeichen für dall-e-3 | Yes | |
| partial_images | integer | Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird. | 0 | |
| stream | boolean | Bearbeiten Sie das Bild im Streamingmodus. | no | false |
| quality | imageQuality | Die Qualität des zu generierenden Bilds | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.Mögliche Werte: url, b64_json. |
No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| style | imageStyle | Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt. | No | vivid |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Erstellt Bilder auf der Grundlage eines Prompts.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Bildgenerationen - Bearbeiten
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Bearbeitet ein Bild einer Textbeschriftung für eine bestimmte gpt-image-1-Modellimplementierung.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Zeichenfolge oder Array | Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 50 MB ist. | Yes | |
| input_fidelity | string | Steuern Sie, wie viel Aufwand das Modell ausüben wird, um dem Stil und den Features, insbesondere Gesichtsmerkmalen, von Eingabebildern zu entsprechen. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. Unterstützt high und low. |
no |
low. |
| mask | string | Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. | No | |
| n | integer | Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. | No | 1 |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. | Yes | |
| quality | imageQuality | Die Qualität des zu generierenden Bilds | No | auto |
| partial_images | Die Anzahl der zu generierenden Teilbilder. Dieser Parameter wird für Streamingantworten verwendet, die Teilbilder zurückgeben. Der Wert muss zwischen 0 und 3 sein. Bei Festlegung auf 0 ist die Antwort ein einzelnes Bild, das in einem Streamingereignis gesendet wird. Beachten Sie, dass das endgültige Bild möglicherweise gesendet wird, bevor die vollständige Anzahl von Teilbildern generiert wird, wenn das vollständige Bild schneller generiert wird. | |||
| stream | boolean | Bearbeiten Sie das Bild im Streamingmodus. | no | false |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Statuscode: Standard
Beschreibung: Fehler.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Auflisten: Assistenten
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Gibt eine Liste mit Assistenten zurück.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Gibt eine Liste mit Assistenten zurück.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Erstellen: Assistent
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | Yes | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| └– Vektorspeicher | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein. |
No | [] |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Erstellen Sie einen Assistenten mit einem Modell und Anweisungen.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Abrufen: Assistent
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Ruft einen Assistenten ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des abzurufenden Assistenten. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Ruft einen Assistenten ab.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Ändern: Assistent
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Ändert einen Assistenten.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des zu ändernden Assistenten. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | No | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein. |
No | [] |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Ändert einen Assistenten.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Antworten: Statuscode: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Löschen: Assistent
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Löscht einen Assistenten.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Die ID des zu löschenden Assistenten. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Löscht einen Assistenten.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Erstellen: Thread
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Erstellen Sie einen Thread.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. | No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| └– Vektorspeicher | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Erstellt einen Thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Abrufen: Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Ruft einen Thread ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des abzurufenden Threads. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Ruft einen Thread ab.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Ändern: Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Ändert einen Thread.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des zu ändernden Threads. Nur die metadata Kann geändert werden. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Ändert einen Thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Löschen: Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Löscht einen Thread.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des zu löschenden Threads. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Löscht einen Thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Auflisten: Nachrichten
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Gibt eine Liste von Nachrichten für einen bestimmten Thread zurück.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu der die Nachrichten gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| run_id | query | No | string | Filtern Sie Nachrichten nach der Ausführungs-ID, die sie generiert hat. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
Nachrichten auflisten
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Erstellen: Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Erstellen Sie eine Nachricht.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, für die eine Nachricht erstellt werden soll. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| role | string | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind: - user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
Yes |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Erstellen Sie eine Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Abrufen: Nachricht
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Rufen Sie eine Nachricht ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen diese Nachricht gehört. |
| message_id | path | Yes | string | Die ID der abzurufenden Nachricht. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Rufen Sie eine Nachricht ab.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Ändern: Nachricht
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Ändert eine Nachricht.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem diese Nachricht gehört. |
| message_id | path | Yes | string | Die ID der zu ändernden Nachricht. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Ändern Sie eine Nachricht.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Erstellen: Thread und Ausführung
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Yes | |
| instructions | string | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
| stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | None |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Dient dazu, einen Thread in einer einzelnen Anforderung zu erstellen und auszuführen.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Auflisten: Ausführungen
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem die Ausführung gehört. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Gibt eine Liste von Ausführungen zurück, die zu einem Thread gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Erstellen: Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Erstellen Sie eine Ausführung.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des auszuführenden Threads. |
| include[] | query | No | array | Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert zum Abrufen der Dateisuchergebnisinhalte. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | No | |
| additional_messages | array | Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. | No | |
| assistant_id | string | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Yes | |
| instructions | string | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | Die ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Meldung generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
| tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Erstellen Sie eine Ausführung.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Abrufen: Ausführung
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Ruft eine Ausführung ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der ausgeführten Threads. |
| run_id | path | Yes | string | ID der abzurufenden Ausführung |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Ruft eine Ausführung ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Ändern: Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Ändert eine Ausführung.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der ausgeführten Threads. |
| run_id | path | Yes | string | Die ID des zu ändernden Laufs. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Ändert eine Ausführung.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Übermitteln: Toolausgaben für die Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Wenn eine Ausführung den Status status: "requires_action" hat und required_action.type auf submit_tool_outputs festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID der Threads, zu denen diese Ausführung gehört. |
| run_id | path | Yes | string | Die ID der Ausführung, für die die Toolausgabeübermittlung erforderlich ist |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
| tool_outputs | array | Eine Liste der Tools, für die die Ausgaben übermittelt werden | Yes |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Wenn eine Ausführung den Status status: "requires_action" hat und required_action.type auf submit_tool_outputs festgelegt ist, kann dieser Endpunkt zum Übermitteln der Ausgaben aus den Toolaufrufen verwendet werden, sobald sie alle abgeschlossen sind. Alle Ausgaben müssen in einer einzelnen Anforderung übermittelt werden.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Abbrechen: Ausführung
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Bricht eine Ausführung ab, die den Status in_progress aufweist.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem diese Ausführung gehört. |
| run_id | path | Yes | string | ID der Ausführung, die abgebrochen werden soll |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Bricht eine Ausführung ab, die den Status in_progress aufweist.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Auflisten: Ausführungsschritte
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem die Ausführung und die Ausführungsschritte gehören |
| run_id | path | Yes | string | Die ID der Ausführung, zu der die Ausführungsschritte gehören |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert zum Abrufen der Dateisuchergebnisinhalte. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Gibt eine Liste von Ausführungsschritten zurück, die zu einer Ausführung gehören.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Abrufen: Ausführungsschritt
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Ruft einen Ausführungsschritt ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | Die ID des Threads, zu dem die Ausführung und der Ausführungsschritt gehören |
| run_id | path | Yes | string | Die ID der Ausführung, zu der der Ausführungsschritt gehört |
| step_id | path | Yes | string | Die ID des abzurufenden Ausführungsschritts |
| include[] | query | No | array | Eine Liste mit zusätzlichen Feldern, die in die Antwort aufgenommen werden sollen. Derzeit ist step_details.tool_calls[*].file_search.results[*].content der einzige unterstützte Wert zum Abrufen der Dateisuchergebnisinhalte. |
| api-version | query | Yes | string |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Ruft einen Ausführungsschritt ab.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Auflisten: Vektorspeicher
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Gibt eine Liste mit Vektorspeichern zurück.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Gibt eine Liste mit Vektorspeichern zurück.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Erstellen: Vektorspeicher
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Erstellen Sie einen Vektorspeicher.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
No | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Erstellt einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Abrufen: Vektorspeicher
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Ruft einen Vektorspeicher ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des abzurufenden Vektorspeichers. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Ruft einen Vektorspeicher ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Ändern: Vektorspeicher
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Ändert einen Vektorspeicher.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu ändernden Vektorspeichers. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Ändert einen Vektorspeicher.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Löschen: Vektorspeicher
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Löschen Sie einen Vektorspeicher.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu löschenden Vektorspeichers. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Löscht einen Vektorspeicher.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Auflisten: Vektorspeicherdateien
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Gibt eine Liste mit Vektorspeicherdateien zurück.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | string Mögliche Werte: in_progress, , completed, failedcancelled |
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Gibt eine Liste mit Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Erstellen: Vektorspeicherdatei
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den eine Datei erstellt werden soll. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No | |
| file_id | string | Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Yes |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Abrufen: Vektorspeicherdatei
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Ruft eine Vektorspeicherdatei ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der abgerufenen Datei. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Ruft eine Vektorspeicherdatei ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Löschen: Vektorspeicherdatei
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der zu löschenden Datei. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt. Die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Aktualisieren von Attributen in einer Vektorspeicherdatei.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der Datei zum Aktualisieren von Attributen. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. |
Yes |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Abrufen von Vektorspeicherdateiinhalten
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Rufen Sie den analysierten Inhalt einer Vektorspeicherdatei ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers. |
| file_id | path | Yes | string | Die ID der Datei im Vektorspeicher. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Vektorspeicher durchsuchen
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Suchen Sie einen Vektorspeicher nach relevanten Blöcken basierend auf einem Abfrage- und Dateiattributefilter.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des zu durchsuchenden Vektorspeichers. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | No | |
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. | No | 10 |
| query | Zeichenfolge oder Array | Eine Abfragezeichenfolge für eine Suche | Yes | |
| ranking_options | object | Sortieroptionen für die Suche. | No | |
| └– Ranker | enum | Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ Punktschwelle | number | No | 0 | |
| rewrite_query | boolean | Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. | No | False |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Erstellen: Vektorspeicher-Dateibatch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Erstellen Sie einen Vektorspeicher-Dateibatch.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No | |
| file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Yes |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Erstellen Sie einen Vektorspeicher-Dateibatch.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Antworten: Statuscode: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Abrufen: Vektorspeicher-Dateibatch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Ruft einen Vektorspeicher-Dateibatch ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des abgerufenen Dateibatches |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Ruft einen Vektorspeicher-Dateibatch ab.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Abbrechen: Vektorspeicher-Dateibatch
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des zu abbrechenden Dateibatches. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Auflisten: Dateien eines Vektorspeicher-Dateibatchs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| batch_id | path | Yes | string | Die ID des Dateibatches, zu dem die Dateien gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge und desc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung senden und 100 Objekte empfangen, die mit „obj_foo“ enden, kann der nachfolgende Aufruf „after=obj_foo“ enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert. Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, beginnend mit obj_foo, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | string Mögliche Werte: in_progress, , completed, failedcancelled |
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | API-Version |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Gibt eine Liste mit Vektorspeicherdateien zurück.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Antworten: Statuscode: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Erstellen: Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API. Kann mit denselben Sitzungsparametern wie das session.update Clientereignis konfiguriert werden.
Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden. Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird. |
No | |
| └– Typ | enum | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription, standardmäßig ausgeschaltet und kann auf null eingestellt werden, um es auszuschalten, wenn es einmal eingeschaltet ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └– Sprache | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ Modell | string | Das Modell, das für die Transkription verwendet werden soll, umfasst die aktuellen Optionen gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1. |
No | |
| └– Eingabeaufforderung | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| instructions | string | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann zu Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "freundlich verhalten", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "schnell sprechen", "Emotionen in die Stimme einfügen", "häufig lachen"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist. |
No | |
| max_response_output_tokens | ganze Zahl oder Zeichenfolge | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 ein, um die Ausgabetoken zu begrenzen, oder verwenden Sie inf für die maximal verfügbaren Token eines bestimmten Modells. Wird standardmäßig auf inf festgelegt. |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| model | string | Der Name der Bereitstellung, die für diese Sitzung verwendet wird |
No | |
| output_audio_format | enum | Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw.Bei pcm16 wird eine Abtastrate von 24 kHz für die Ausgabeaudiodaten verwendet.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen. |
No | 0.8 |
| tool_choice | string | Gibt an, wie das Modell Tools auswählt. Optionen sind auto, none, requiredoder geben Sie eine Funktion an. |
No | auto |
| tools | array | Tools (Funktionen), die für das Modell verfügbar sind. | No | |
| turn_detection | object | Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └– create_response | boolean | Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt. |
No | True |
| └– Eifer | enum | Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht medium.Mögliche Werte: low, , medium, highauto |
No | |
| └– interrupt_response | boolean | Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt. |
No | True |
| └– prefix_padding_ms | integer | Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms |
No | |
| └– Dauer_der_Stille_in_ms | integer | Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └– Schwellenwert | number | Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └– Typ | enum | Art der Kurvenerkennung. Mögliche Werte: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Statuscode: 200
Beschreibung: Die Sitzung wurde erfolgreich erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Erstellen: Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeittranskriptionen.
Kann mit denselben Sitzungsparametern wie das transcription_session.update Clientereignis konfiguriert werden.
Er antwortet mit einem Sitzungsobjekt sowie einem client_secret Schlüssel, der ein verwendbares ephemeres API-Token enthält, das zum Authentifizieren von Browserclients für die Realtime-API verwendet werden kann.
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden. Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird. |
No | |
| └– Typ | enum | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └– Sprache | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ Modell | enum | Das Modell, das für die Transkription verwendet werden soll: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1.Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └– Eingabeaufforderung | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| turn_detection | object | Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └– create_response | boolean | Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └– Eifer | enum | Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht medium.Mögliche Werte: low, , medium, highauto |
No | |
| └– interrupt_response | boolean | Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └– prefix_padding_ms | integer | Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms |
No | |
| └– Dauer_der_Stille_in_ms | integer | Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └– Schwellenwert | number | Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └– Typ | enum | Art der Kurvenerkennung. Mögliche Werte: server_vad, semantic_vad |
No |
Responses
Statuscode: 200
Beschreibung: Die Sitzung wurde erfolgreich erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Erstellt eine Modellantwort.
Anforderungstext
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | Zeichenfolge oder Array | Modelleingaben | Yes | |
| instructions | string | Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein. Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für Antworten generiert werden können, einschließlich sichtbarer Ausgabetoken und Konversationsstatus. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Gesprächszustand. |
No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. | No | |
| store | boolean | Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. |
No | True |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Weitere Informationen finden Sie im Abschnitt "Streaming" weiter unten. |
No | False |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ Format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht.Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Funktionen des Modells |
No | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Antwort-API – Eingabeelemente
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Ruft eine Modellantwort mit der angegebenen ID ab.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der abzurufenden Antwort |
| include | query | No | array | Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. Weitere Informationen finden Sie im Parameter include für die Erstellung von Antworten. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Antwort löschen
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Löscht eine Modellantwort mit der angegebenen ID.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der zu löschenden Antwort. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
Statuscode: 404
Beschreibung: Nicht gefunden
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Statuscode: Standard
Beschreibung: Dienst nicht verfügbar
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Antwort-API – Antwortelementliste
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.
URI-Parameter
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | Zeichenketten-URL | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | Die ID der Antwort, für die Eingabeelemente abgerufen werden sollen |
| limit | query | No | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden sollen. Der Standardwert ist asc.- asc: Gibt die Eingabeelemente in aufsteigender Reihenfolge zurück.- desc: Gibt die Eingabeelemente in absteigender Reihenfolge zurück. |
| after | query | No | string | Eine Element-ID, nach der Elemente aufgeführt werden sollen (wird bei Paginierung verwendet) |
| before | query | No | string | Eine Element-ID, um Elemente davor aufzulisten, die in der Paginierung verwendet wird. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| api-key | True | string | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Responses
Statuscode: 200
Beschreibung: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Innerer Fehler mit zusätzlichen Details. | No | |
| param | string | No | ||
| type | string | No |
innerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt | No | |
| content_filter_results | contentFilterPromptResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No |
innerErrorCode
Fehlercodes für das innere Fehlerobjekt
| Property | Value |
|---|---|
| Description | Fehlercodes für das innere Fehlerobjekt |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Innerer Fehler mit zusätzlichen Details. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Innerer Fehler mit zusätzlichen Details.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Fehlercodes für das innere Fehlerobjekt | No | |
| content_filter_results | dalleFilterResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No | |
| revised_prompt | string | Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde | No |
contentFilterCompletionTextSpan
Beschreibt eine Spanne innerhalb des generierten Vervollständigungstexts. Offset 0 ist der erste UTF32-Codepunkt des Vervollständigungstexts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. | Yes | |
| completion_start_offset | integer | Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └– URL | string | No | ||
| └– Lizenz | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informationen zu den Ergebnissen der Inhaltsfilterung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No | |
| prompt_index | integer | No |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
Für diese Komponente sind keine Eigenschaften definiert.
dalleContentFilterResults
Informationen zu den Ergebnissen der Inhaltsfilterung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Ergebnisse der Inhaltsfilterung mit Inhaltsfilter-IDs für die gefilterten Segmente als Detailinformation. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. | No | 0 |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. | No | |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). Dies ist nicht mit Modellen der o1-Serie kompatibel. | No | 4096 |
| metadata | object | Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. | No | |
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | No | 0 |
| stop | Zeichenfolge oder Array | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. | No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatvervollständigungsanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | |
| stream | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Tokens werden als ausschließlich serverseitig gesendete Datenereignisse übertragen, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Meldung beendet wird. |
No | False |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden.Wenn Sie diese Funktion zusammen mit n verwenden, steuert best_of die Anzahl der möglichen Vervollständigungen, und n gibt an, wie viele zurückgegeben werden sollen.
best_of muss größer als nsein.Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
| echo | boolean | Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. |
No | False |
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
No | None |
| logprobs | integer | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Token zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.Der Höchstwert für logprobs ist 5. |
No | None |
| max_tokens | integer | Die maximale Anzahl von Tokens, die bei der Vervollständigung generiert werden können. Die Tokenanzahl Ihres Prompts plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. |
No | 16 |
| n | integer | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
No | 1 |
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
| prompt | Zeichenfolge oder Array | Die Prompts zum Generieren von Vervollständigungen, die als Zeichenfolge, Array von Zeichenfolgen, Array von Token oder Array von Tokenarrays codiert werden. Beachten Sie, dass <|endoftext|> das Dokumententrennzeichen ist, das das Modell während des Trainings sieht. Wenn also kein Prompt angegeben wird, wird die Generierung des Modells wie am Anfang eines neuen Dokuments durchgeführt. |
Yes | |
| seed | integer | Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Array | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. |
No | |
| stream | boolean | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn festgelegt, werden Token als nur vom Server gesendete Datenereignisse gesendet, sobald sie verfügbar sind, wobei der Datenstrom von einer data: [DONE] Nachricht beendet wird.
Python-Beispielcode |
No | False |
| suffix | string | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt. |
No | None |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No |
createCompletionResponse
Stellt eine Vervollständigungsantwort der API dar. Hinweis: Sowohl die gestreamten als auch nicht gestreamten Antwortobjekte verwenden dieselbe Form (im Gegensatz zum Chatendpunkt).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Die Liste der Vervollständigungsoptionen, die das Modell für die Eingabeaufforderung generiert hat | Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Vervollständigung erstellt wurde | Yes | |
| id | string | Eindeutiger Bezeichner für die Vervollständigung | Yes | |
| model | string | Das für die Vervollständigung verwendete Modell | Yes | |
| object | enum | Der Objekttyp, der immer „text_completion“ lautet Möglicher Wert: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No | |
| usage | completionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"] angefordert wird. |
No | |
| └─ Format | enum | Gibt das Audioformat der Ausgabe an. Muss eine von wav, mp3, flac, opus oder pcm16 sein. Mögliche Werte: wav, , mp3flac, , opuspcm16 |
No | |
| └– Stimme | enum | Gibt den Stimmentyp an. Unterstützte Stimmen sind alloy, , echo, fable, onyx, novaund shimmer.Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
No | |
| data_sources | array | Die Konfigurationseinträge für Azure OpenAI-Chaterweiterungen, die sie verwenden. Diese zusätzliche Spezifikation ist nur mit Azure OpenAI kompatibel. |
No | |
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
No | 0 |
| function_call | string oder chatCompletionFunctionCallOption | Zugunsten von tool_choice eingestellt.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
No | |
| functions | array | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Ein JSON-Objekt, das Token (angegeben durch die Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von –100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen –1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie –100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
No | None |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. |
No | False |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Vervollständigung generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Die Gesamtlänge der Eingabetoken und generierten Token wird durch die Kontextlänge des Modells begrenzt. |
No | |
| messages | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Python-Beispielcode | Yes | |
| metadata | object | Entwicklerdefinierte Tags und Werte, die zum Filtern von Fertigstellungen im Dashboard für gespeicherte Fertigstellungen verwendet werden. | No | |
| modalities | ChatCompletionModalities | Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:["text", "audio"] |
No | |
| n | integer | Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| prediction | PredictionContent | Konfiguration für eine vorhergesagte Ausgabe, was die Reaktionszeiten erheblich verbessern kann, wenn große Teile der Modellantwort vorab bekannt sind. Dies ist am verbreitetsten, wenn Sie eine Datei mit nur geringfügigen Änderungen an den meisten Inhalten neu erstellen. | No | |
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
No | 0 |
| reasoning_effort | enum |
Nur o1-Modelle Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.Mögliche Werte: low, , mediumhigh |
No | |
| response_format | ResponseFormatText oder ResponseFormatJsonObject oder ResponseFormatJsonSchema | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4o mini, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen, die neuer als gpt-3.5-turbo-1106 sind.Das Einstellen von { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die garantieren, dass das Modell einem bereitgestellten JSON-Schema entspricht.Wenn Sie ihn auf { "type": "json_object" } festlegen, wird der JSON-Modus aktiviert, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, bemüht sich unser System am besten, deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | Zeichenfolge oder Array | Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. |
No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatvervollständigungsanforderung für die Verwendung in unseren Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | |
| stream | boolean | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] Nachricht beendet wird.
Python-Beispielcode |
No | False |
| stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | None |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
| tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird. |
No | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
No | |
| user_security_context | userSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. | No |
userSecurityContext
Der Benutzersicherheitskontext enthält mehrere Parameter, die die KI-Anwendung selbst beschreiben, und den Endbenutzer, der mit der KI-Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Der Name der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. | No | |
| end_user_id | string | Dieser Bezeichner ist die Benutzerobjekt-ID von Microsoft Entra ID (früher Azure Active Directory), die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. | No | |
| end_user_tenant_id | string | Die Microsoft 365-Mandanten-ID, zu der der Endbenutzer gehört. Sie ist erforderlich, wenn die generative KI-Anwendung mehrinstanzenfähig ist. | No | |
| source_ip | string | Erfasst die IP-Adresse des ursprünglichen Clients, wobei sowohl IPv4- als auch IPv6-Formate akzeptiert werden. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
No |
chatCompletionFunctionCallOption
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der aufzurufenden Funktion. | Yes |
chatCompletionFunctionParameters
Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung guide/ und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionRequestMessage
Mögliche Werte für diese Komponente:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden.
Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Array | Der Inhalt der Entwicklernachricht. | Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).Möglicher Wert: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Array | Die Inhalte der Systemnachricht. | Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: system).Möglicher Wert: system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Array | Die Inhalte der Benutzernachricht. |
Yes | |
| name | string | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: user).Möglicher Wert: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Array | Die Inhalte der Assistentennachricht. Erforderlich, es sei denn, tool_calls oder function_call ist angegeben. |
No | |
| function_call | object | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └- Argumente | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | No | |
| └– Name | string | Der Name der aufzurufenden Funktion. | No | |
| name | string | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| refusal | string | Die Ablehnungsnachricht des Assistenten. | No | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).Möglicher Wert: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Array | Die Inhalte der Toolnachricht. | Yes | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).Möglicher Wert: tool |
Yes | |
| tool_call_id | string | Toolaufruf, auf den diese Nachricht reagiert. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Die Inhalte der Funktionsmeldung. | Yes | |
| name | string | Der Name der aufzurufenden Funktion. | Yes | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function).Möglicher Wert: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestSystemMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestUserMessageContentPart
Mögliche Werte für diese Komponente:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestToolMessageContentPart
Mögliche Werte für diese Komponente:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der Textinhalt. | Yes | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └– Daten | string | Base64-codierte Audiodaten. | No | |
| └─ Format | enum | Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”. Mögliche Werte: wav, mp3 |
No | |
| type | enum | Der Typ des Inhaltsteils Immer input_audio.Möglicher Wert: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └– Detail | enum | Gibt den Detailgrad des Bilds an. Weitere Informationen finden Sie im Leitfaden für Vision. Mögliche Werte: auto, , lowhigh |
No | |
| └– URL | string | Entweder eine URL des Bilds oder die base64-codierten Bilddaten | No | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Eine vom Modell generierte Ablehnungsmeldung. | Yes | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: refusal |
Yes |
azureChatExtensionConfiguration
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
###Diskriminator für „azureChatExtensionConfiguration“
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureChatExtensionType
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
| Property | Value |
|---|---|
| Description | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird | No | |
| type | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureSearchChatExtensionParameters
Parameter für Azure Search, wenn Azure Search als Azure OpenAI-Chaterweiterung verwendet wird
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions, onYourDataSystemAssignedManagedIdentityAuthenticationOptions, onYourDataUserAssignedManagedIdentityAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource oder onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource. | No | |
| filter | string | Suchfilter. | No | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. |
No | |
| index_name | string | Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. | Yes | |
| max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
| query_type | azureSearchQueryType | Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll | No | |
| semantic_configuration | string | Die zusätzliche semantische Konfiguration für die Abfrage. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
| top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
azureSearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Search-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| image_vector_fields | array | Die Namen von Feldern, die Bildvektordaten darstellen. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No |
azureSearchQueryType
Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll
| Property | Value |
|---|---|
| Description | Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Azure Cosmos DB, wenn Azure Cosmos DB als Azure OpenAI-Chaterweiterung verwendet wird
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden | No | |
| type | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
azureCosmosDBChatExtensionParameters
Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Azure Cosmos DB for MongoDB vCore verwenden
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge | Yes | |
| container_name | string | Der Name des Azure Cosmos DB-Ressourcencontainers | Yes | |
| database_name | string | Der Name der MongoDB vCore-Datenbank, die mit Azure Cosmos DB verwendet werden soll | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource | Yes | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. |
No | |
| index_name | string | Der Name des MongoDB vCore-Index, der mit Azure Cosmos DB verwendet werden soll | Yes | |
| max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
| top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
azureCosmosDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Azure Cosmos DB-Ressource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Yes | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Yes |
elasticsearchChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Elasticsearch, wenn Elasticsearch als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen. | No | |
| type | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
elasticsearchChatExtensionParameters
Parameter, die beim Konfigurieren von Elasticsearch als® Azure OpenAI-Chaterweiterung verwendet werden sollen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions oder onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource, onYourDataDeploymentNameVectorizationSource oder onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Der Endpunkt von Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®. | No | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. |
No | |
| index_name | string | Der Indexname von Elasticsearch®. | Yes | |
| max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
| query_type | elasticsearchQueryType | Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
| top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
elasticsearchIndexFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten ElasticsearchÂ-Ressource®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No |
elasticsearchQueryType
Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird.
| Property | Value |
|---|---|
| Description | Der Typ der ElasticsearchÂ-Abrufabfrage®, die ausgeführt werden soll, wenn sie als Azure OpenAI-Chaterweiterung verwendet wird. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Mongo DB, wenn Mongo DB als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden. | No | |
| type | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
mongoDBChatExtensionParameters
Zu verwendende Parameter beim Konfigurieren von Azure OpenAI On Your Data-Chaterweiterungen, wenn Sie Mongo DB verwenden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
| app_name | string | Der Name der Mongo DB-Anwendung. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort. | Yes | |
| collection_name | string | Der Name der Mongo DB-Collection. | Yes | |
| database_name | string | Der Name der Mongo DB-Datenbank. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource oder onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Der Name des Mongo DB-Clusterendpunkts. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource. | Yes | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. |
No | |
| index_name | string | Der Name des Mongo DB-Index. | Yes | |
| max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
| top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
mongoDBFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Mongo DB-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Yes | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | Yes |
pineconeChatExtensionConfiguration
Eine spezifische Darstellung konfigurierbarer Optionen für Pinecone, wenn Pinecone als Azure OpenAI-Chaterweiterung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“. | No | |
| type | azureChatExtensionType | Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
Yes |
pineconeChatExtensionParameters
Parameter zum Konfigurieren von Azure OpenAI-Chaterweiterungen vom Typ „Pinecone“.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Wenn TRUE angegeben wird, lässt das System die Verwendung von partiellen Suchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Abfragen fehlschlagen. Falls nicht oder als FALSE angegeben, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Die Details einer Vektorisierungsquelle, die von Azure OpenAI für Ihre Daten beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Bereitstellungsnamen des Einbettungsmodells in derselben Azure OpenAI-Ressource basiert. | Yes | |
| environment | string | Der Umgebungsname von Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource. | Yes | |
| in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. | No | |
| include_contexts | array | Enthaltenen Eigenschaften des Ausgabekontexts. Falls nicht angegeben, lautet der Standardwert citations und intent. |
No | |
| index_name | string | Der Name des Pinecone-Datenbankindex. | Yes | |
| max_search_queries | integer | Die maximale Anzahl der umgeschriebenen Abfragen sollte für eine Benutzernachricht an den Suchanbieter gesendet werden. Falls nicht angegeben, entscheidet das System über die Anzahl der Abfragen, die gesendet werden sollen | No | |
| strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. | No | |
| top_n_documents | integer | Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. | No |
pineconeFieldMappingOptions
Optionale Einstellungen zum Steuern der Verarbeitung von Feldern bei Verwendung einer konfigurierten Pinecone-Ressource.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Yes | |
| content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No |
onYourDataAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data
Diskriminator für „onYourDataAuthenticationOptions“
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataContextProperty
Die Kontexteigenschaft.
| Property | Value |
|---|---|
| Description | Die Kontexteigenschaft. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data.
| Property | Value |
|---|---|
| Description | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines API-Schlüssels.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der für die Authentifizierung zu verwendende API-Schlüssel. | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer Verbindungszeichenfolge
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Die Verbindungszeichenfolge für die Authentifizierung | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines Schlüssel- und Schlüssel-ID-Paars von Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der für die Authentifizierung zu verwendende Elasticsearch-Schlüssel | No | |
| key_id | string | Die für die Authentifizierung zu verwendende Elasticsearch-Schlüssel-ID | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung eines elasticsearch-codierten API-Schlüssels
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Der für die Authentifizierung zu verwendende elasticsearch-codierte API-Schlüssel | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Zugriffstoken
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Das Zugriffstoken zur Verwendung bei der Authentifizierung | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom System zugewiesenen verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung einer vom Benutzer zugewiesenen verwalteten Identität.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Die Authentifizierungsoptionen für Azure OpenAI On Your Data bei Verwendung von Benutzername und Kennwort.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | Das Kennwort. der für die Authentifizierung verwendet wird. | No | |
| type | onYourDataAuthenticationType | Die unterstützten Authentifizierungstypen für Azure OpenAI On Your Data. | Yes | |
| username | string | Der Benutzername, der für die Authentifizierung verwendet wird. | No |
onYourDataVectorizationSource
Eine abstrakte Darstellung einer Vektorisierungsquelle für Azure OpenAI On Your Data mit Vektorsuche
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren | Yes |
onYourDataVectorizationSourceType
Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren
| Property | Value |
|---|---|
| Description | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einem öffentlichen Azure OpenAI-Endpunktaufruf für Einbettungen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions oder onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| endpoint | string | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im Format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings sein. Der Abfrageparameter der API-Version ist nicht zulässig. |
No | |
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren | Yes |
onYourDataDeploymentNameVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird, die auf einem internen Namen der Modellimplementierung für Einbettungen in der gleichen Azure OpenAI-Ressource basiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. | No | |
| dimensions | integer | Anzahl der Dimensionen, die die Einbettungen aufweisen sollten. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren | Yes |
onYourDataIntegratedVectorizationSource
Stellt den integrierten Vektorizer dar, der in der Suchressource definiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren | Yes |
onYourDataModelIdVectorizationSource
Die Details einer Vektorisierungsquelle, die von Azure OpenAI On Your Data beim Anwenden der Vektorsuche verwendet wird – basierend auf einer Suchdienstmodell-ID. Derzeit nur von Elasticsearch unterstützt.®
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Gibt die Modell-ID an, die für die Vektorisierung verwendet werden soll. Diese Modell-ID muss im Suchdienst definiert werden. | No | |
| type | onYourDataVectorizationSourceType | Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren | Yes |
azureChatExtensionsMessageContext
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Alle abgerufenen Dokumente. | No | |
| citations | array | Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. | No | |
| intent | string | Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. | No |
citation
Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | Die Segment-ID des Zitats. | No | |
| content | string | Der Inhalt des Zitats. | Yes | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| rerank_score | number | Die neue Rangpunktzahl des abgerufenen Dokuments. | No | |
| title | string | Der Titel des Zitats. | No | |
| url | string | Die URL des Zitats. | No |
retrievedDocument
Das abgerufene Dokument.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | Die Segment-ID des Zitats. | No | |
| content | string | Der Inhalt des Zitats. | Yes | |
| data_source_index | integer | Der Index der Datenquelle. | No | |
| filepath | string | Der Dateipfad des Zitats. | No | |
| filter_reason | filterReason | Der Filtergrund für das abgerufene Dokument. | No | |
| original_search_score | number | Die ursprüngliche Suchbewertung des abgerufenen Dokuments. | No | |
| rerank_score | number | Die neue Rangpunktzahl des abgerufenen Dokuments. | No | |
| search_queries | array | Die zum Abrufen des Dokuments verwendeten Suchabfragen. | No | |
| title | string | Der Titel des Zitats. | No | |
| url | string | Die URL des Zitats. | No |
filterReason
Der Filtergrund für das abgerufene Dokument.
| Property | Value |
|---|---|
| Description | Der Filtergrund für das abgerufene Dokument. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktion, die das Modell aufgerufen hat | Yes | |
| └- Argumente | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | No | |
| └– Name | string | Der Name der aufzurufenden Funktion. | No | |
| id | string | Die ID des Toolaufrufs | Yes | |
| type | toolCallType | Der Typ des Toolaufrufs (in diesem Fall: function). |
Yes |
toolCallType
Der Typ des Toolaufrufs (in diesem Fall: function).
| Property | Value |
|---|---|
| Description | Der Typ des Toolaufrufs (in diesem Fall: function). |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Nachricht. | No | |
| tool_call_id | string | Toolaufruf, auf den diese Nachricht reagiert. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Nachricht. | No | |
| name | string | Der Inhalt der Nachricht. | No | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function).Möglicher Wert: function |
No |
createChatCompletionResponse
Repräsentiert eine Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Es können mehrere sein, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde | Yes | |
| id | string | Ein eindeutiger Bezeichner für die Chatvervollständigung | Yes | |
| model | string | Das Modell, das für die Chatvervollständigung verwendet wird | Yes | |
| object | enum | Der Objekttyp, der immer chat.completion ist.Möglicher Wert: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No | |
| usage | completionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | No |
createChatCompletionStreamResponse
Repräsentiert einen gestreamten Block einer Chatvervollständigungsnachricht, die vom Modell basierend auf der Eingabe zurückgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist. |
Yes | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. | Yes | |
| id | string | Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. | Yes | |
| model | string | Das Modell, das die Vervollständigung generiert. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completion.chunk ist.Möglicher Wert: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
No |
chatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Die Inhalte der Blocknachricht. | No | |
| function_call | object | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └- Argumente | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | No | |
| └– Name | string | Der Name der aufzurufenden Funktion. | No | |
| refusal | string | Eine vom Modell generierte Ablehnungsmeldung. | No | |
| role | enum | Die Rolle des Autors dieser Nachricht Mögliche Werte: system, , user, assistanttool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └- Argumente | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | No | |
| └– Name | string | Der Name der aufzurufenden Funktion. | No | |
| id | string | Die ID des Toolaufrufs | No | |
| index | integer | Yes | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
No |
chatCompletionStreamOptions
Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Wenn dies festgelegt ist, wird ein zusätzlicher Block vor der data: [DONE]-Nachricht gestreamt. Das Feld usage in diesem Block zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das Feld choices ist immer ein leeres Array. Alle anderen Blöcke enthalten auch ein Feld usage, jedoch mit einem NULL-Wert. |
No |
chatCompletionChoiceLogProbs
Logarithmierte Wahrscheinlichkeit für die Auswahl
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit | Yes | |
| refusal | array | Eine Liste der Nachrichtenablehnungstoken mit Informationen zur logarithmierten Wahrscheinlichkeit. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. |
Yes | |
| logprob | number | Die logarithmierte Wahrscheinlichkeit dieses Tokens | Yes | |
| token | string | Das Token. | Yes | |
| top_logprobs | array | Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. |
Yes |
chatCompletionResponseMessage
Eine vom Modell generierte Chatvervollständigungsnachricht
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. | No | |
| └– Daten | string | Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format. |
No | |
| └– abläuft_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem diese Audioantwort nicht mehr auf dem Server für die Verwendung in mehrstufigen Dialogen zugänglich ist. |
No | |
| └– ID | string | Eindeutiger Bezeichner für diese Audioausgabe. | No | |
| └– Transkript | string | Transkript der vom Modell generierten Audiodaten. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| context | azureChatExtensionsMessageContext | Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist. | No | |
| function_call | chatCompletionFunctionCall | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| refusal | string | Eine vom Modell generierte Ablehnungsmeldung. | Yes | |
| role | chatCompletionResponseMessageRole | Die Rolle des Antwortnachrichterstellers | Yes | |
| tool_calls | array | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | No |
chatCompletionResponseMessageRole
Die Rolle des Antwortnachrichterstellers
| Property | Value |
|---|---|
| Description | Die Rolle des Antwortnachrichterstellers |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Mögliche Werte für diese Komponente:
chatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └– Name | string | Der Name der aufzurufenden Funktion. | No | |
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Yes |
ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Für diese Komponente sind keine Eigenschaften definiert.
PredictionContent
Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Array | Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll. Wenn generierte Token mit diesem Inhalt übereinstimmen, kann die gesamte Modellantwort viel schneller zurückgegeben werden. | Yes | |
| type | enum | Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.Möglicher Wert: content |
Yes |
chatCompletionMessageToolCalls
Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.
Für diese Komponente sind keine Eigenschaften definiert.
ChatCompletionModalities
Ausgabetypen, die vom Modell für diese Anforderung generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:
["text", "audio"]
Für diese Komponente sind keine Eigenschaften definiert.
chatCompletionFunctionCall
Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | Yes | |
| name | string | Der Name der aufzurufenden Funktion. | Yes |
completionUsage
Nutzungsstatistiken für die Vervollständigungsanforderung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung | Yes | |
| completion_tokens_details | object | Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. | No | |
| └– akzeptierte_Vorhersage_Token | integer | Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. | No | |
| └– audio_tokens | integer | Vom Modell generierte Audioeingabetoken. | No | |
| └– reasoning_tokens | integer | Vom Modell generierte Tokens zur Begründung. | No | |
| └– rejected_prediction_tokens | integer | Bei Verwendung von „Vorhergesagte Ausgaben” die Anzahl der Token in der Vorhersage, die im Abschluss nicht angezeigt wurde. Diese Token werden jedoch, wie Begründungstoken, weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. | No | |
| prompt_tokens | integer | Anzahl der Token im Prompt. | Yes | |
| prompt_tokens_details | object | Details der Prompttoken. | No | |
| └– audio_tokens | integer | Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. | No | |
| └– zwischengespeicherte_Token | integer | Die Anzahl der zwischengespeicherten Prompttoken. | No | |
| total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Yes |
FunctionParameters
Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz.
Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Für diese Komponente sind keine Eigenschaften definiert.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Yes | |
| parameters | FunctionParameters | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
No | |
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats: textMöglicher Wert: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats: json_objectMöglicher Wert: json_object |
Yes |
ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └– Beschreibung | string | Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll. | No | |
| └– Name | string | Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | No | |
| └- Schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. | No | |
| └– streng | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. |
No | False |
| type | enum | Der Typ des zu definierenden Antwortformats: json_schemaMöglicher Wert: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Übersetzungsanforderung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Die zu übersetzende Audiodatei | Yes | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Der Prompt muss in englischer Sprache formuliert werden. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
| temperature | number | Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
audioResponse
Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „json“ war
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Übersetzter oder transkribierter Text | Yes |
audioVerboseResponse
Übersetzungs- oder Transkriptionsantwort, wenn das Antwortformat (response_format) „verbose_json“ war
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Die Art von Audiotask | No | |
| text | string | Übersetzter oder transkribierter Text | Yes | |
| words | array | No |
audioResponseFormat
Definiert das Format der Ausgabe
| Property | Value |
|---|---|
| Description | Definiert das Format der Ausgabe |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transkriptionsanforderung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Das zu transkribierende Audiodateiobjekt | Yes | |
| language | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache im ISO-639-1-Format wird die Genauigkeit und Latenz verbessert. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | audioResponseFormat | Definiert das Format der Ausgabe | No | |
| temperature | number | Die Temperatur der Stichprobenentnahme liegt zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription ausgefüllt werden sollen.
response_format muss auf verbose_json festgelegt werden, um die Zeitstempel-Granularitäten zu verwenden. Eine oder beide dieser Optionen werden unterstützt: word oder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
audioSegment
Transkriptions- oder Übersetzungssegment
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Durchschnittliche logarithmierte Wahrscheinlichkeit | No | |
| compression_ratio | number | Komprimierungsverhältnis | No | |
| end | number | Der Offset für das Segmentende | No | |
| id | integer | Segmentbezeichner | No | |
| no_speech_prob | number | Wahrscheinlichkeit von „keine Sprache“ | No | |
| seek | number | Der Offset des Segments | No | |
| start | number | Der Offset für den Segmentbeginn. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segmenttext | No | |
| tokens | array | Token des Texts | No |
audioWord
Transkriptions- oder Übersetzungswort.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Der Offset für das Wortende. | No | |
| start | number | Der Offset für den Wortbeginn. | No | |
| word | string | Word | No |
createSpeechRequest
Sprachanforderung
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, für den Audio synthetisiert werden soll. Die maximale Länge beträgt 4.096 Zeichen. | Yes | |
| response_format | enum | Das Format für die Audiosynthetisierung. Mögliche Werte: mp3, , opus, aacflac, , , wavpcm |
No | |
| speed | number | Die Geschwindigkeit des synthetisierten Audios. Wählen Sie einen Wert von 0.25 bis 4.0 aus.
1.0 ist die Standardeinstellung. |
No | 1.0 |
| voice | enum | Die Stimme, die für die Sprachsynthese verwendet werden soll. Mögliche Werte: alloy, , echo, fableonyx, , , novashimmer |
Yes |
imageQuality
Die Qualität des zu generierenden Bilds
| Property | Value |
|---|---|
| Description | Die Qualität des zu generierenden Bilds |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Das Format, in dem die generierten Bilder zurückgegeben werden.
| Property | Value |
|---|---|
| Description | Das Format, in dem die generierten Bilder zurückgegeben werden. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für Serienmodelle unterstützt.
| Property | Value |
|---|---|
| Description | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
Die Größe der generierten Bilder.
| Property | Value |
|---|---|
| Description | Die Größe der generierten Bilder. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt.
| Property | Value |
|---|---|
| Description | Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt.
| Property | Value |
|---|---|
| Description | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle unterstützt. | No | auto |
| n | integer | Die Anzahl der zu generierenden Bilder. Für dall-e-3 wird nur n=1 unterstützt. | No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit dem JPEG-Ausgabeformat unterstützt. | No | 100 |
| output_format | imagesOutputFormat | Das Dateiformat, in dem die generierten Bilder zurückgegeben werden. Wird nur für gpt-image-1-Serienmodelle unterstützt. | No | png |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle und 4000 Zeichen für dall-e-3 | Yes | |
| quality | imageQuality | Die Qualität des zu generierenden Bilds | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. Wird nur für DALL-E 3 unterstützt. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| style | imageStyle | Die Größe der generierten Bilder. Wird nur für DALL-E 3 unterstützt. | No | vivid |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Zeichenfolge oder Array | Die zu bearbeitenden Bilder. Muss eine unterstützte Bilddatei oder ein Array von Bildern sein. Jedes Bild sollte eine PNG- oder JPG-Datei sein, die kleiner als 25 MB ist. | Yes | |
| mask | string | Ein zusätzliches Bild, dessen vollständig transparente Bereiche (z. B. Alpha null) angeben, wo das Bild bearbeitet werden soll. Wenn mehrere Bilder bereitgestellt werden, wird die Maske auf das erste Bild angewendet. Muss eine gültige PNG-Datei sein, die kleiner als 4 MB ist und die gleichen Abmessungen wie das Bild aufweist. | No | |
| n | integer | Die Anzahl der zu generierenden Bilder. | No | 1 |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen. | Yes | |
| quality | imageQuality | Die Qualität des zu generierenden Bilds | No | auto |
| response_format | imagesResponseFormat | Das Format, in dem die generierten Bilder zurückgegeben werden. | No | url |
| size | imageSize | Die Größe der generierten Bilder. | No | auto |
| user | string | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Der UNIX-Zeitstempel, der angibt, wann der Vorgang erstellt wurde | Yes | |
| data | array | Die Ergebnisdaten des Vorgangs, sofern der Vorgang erfolgreich war | Yes | |
| usage | imageGenerationsUsage | Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle. | No |
imageResult
Die Bild-URL oder das codierte Bild, sofern der Vorgang erfolgreich war. Andernfalls ein Fehler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | Das base64-codierte Bild | No | |
| content_filter_results | dalleContentFilterResults | Informationen zu den Ergebnissen der Inhaltsfilterung | No | |
| prompt_filter_results | dalleFilterResults | Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. | No | |
| revised_prompt | string | Der Prompt, der zum Generieren des Bilds verwendet wurde, wenn der Prompts überarbeitet wurde | No | |
| url | string | Die Bild-URL | No |
imageGenerationsUsage
Stellt Tokenverwendungsdetails für Anforderungen zur Bildgenerierung dar. Nur für gpt-image-1-Serienmodelle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | No | |
| input_tokens_details | object | Eine detaillierte Aufschlüsselung der Eingabetoken. | No | |
| └– image_tokens | integer | Die Anzahl der Bildtoken | No | |
| └- text_tokens | integer | Die Anzahl der Texttoken. | No | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | No |
line
Ein Inhaltszeilenobjekt, bestehend aus einer zusammenhängenden Sequenz von Inhaltselementen (z. B. Wörter und Auswahlmarkierungen).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Ein Array von span-Objekten, die erkannte Objekte und die zugehörigen Angaben zum umgebenden Rechteck darstellen. | Yes | |
| text | string | Yes |
span
Ein span-Objekt, das ein erkanntes Objekt und die zugehörigen Angaben zum umgebenden Rechteck darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | Die Länge des span-Objekts in Zeichen, gemessen in Unicode-Codepunkten. | Yes | |
| offset | integer | Der Zeichenoffset innerhalb des Texts, der angibt, wo das span-Objekt beginnt. Dieser Offset ist als die Position des ersten Zeichens des span-Objekts definiert. Gezählt wird dabei vom Anfang des Texts in Unicode-Codepunkten. | Yes | |
| polygon | array | Ein Array von Objekten, die Punkte in dem Polygon darstellen, das das erkannte Objekt umschließt. | Yes | |
| text | string | Der Textinhalt des span-Objekts, das das erkannte Objekt darstellt. | Yes |
runCompletionUsage
Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress, queued usw.) befindet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Die Anzahl von Vervollständigungstoken, die im Laufe der Ausführung verwendet wurden. | Yes | |
| prompt_tokens | integer | Die Anzahl von Prompttoken, die im Laufe der Ausführung verwendet wurden. | Yes | |
| total_tokens | integer | Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). | Yes |
runStepCompletionUsage
Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Die Anzahl von Vervollständigungstoken, die im Laufe des Ausführungsschritts verwendet wurden. | Yes | |
| prompt_tokens | integer | Die Anzahl von Prompttoken, die im Laufe des Ausführungsschritts verwendet wurden. | Yes | |
| total_tokens | integer | Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). | Yes |
assistantsApiResponseFormatOption
Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.
Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Mögliche Werte für diese Komponente:
assistantsApiResponseFormat
Ein Objekt, das die erwartete Ausgabe des Modells beschreibt. Bei json_object darf nur der function-Typ tools an die Ausführung übergeben werden. Bei text kann das Modell Text oder einen beliebigen benötigten Wert zurückgeben.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Muss text oder json_object sein. |
No | text |
Typenumeration: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Stellt einen Assistenten (assistant) dar, der das Modell aufrufen und Tools verwenden kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Assistent erstellt wurde. | Yes | |
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen. |
Yes | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Yes | |
| model | string | Die ID des zu verwendenden Modells. | Yes | |
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
Yes | |
| object | string | Der Objekttyp, der immer assistant ist. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, file_search oder function sein. |
Yes | [] |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
Objektenumeration: AssistantObjectType
| Value | Description |
|---|---|
| assistant | Der Objekttyp (immer „assistant“). |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 256,000 Zeichen. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | Yes | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Assistenten angefügte Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| └– Vektorspeicher | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Assistenten anzufügen. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein. |
No | [] |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
No | |
| instructions | string | Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | No | ||
| name | string | Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Überschreibt die Liste mit den Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Überschreibt den an diesen Assistenten angefügten Vektorspeicher. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können vom Typ code_interpreter, retrieval oder function sein. |
No | [] |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objektenumeration: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Die Art des Tools, das definiert wird: code_interpreter |
Yes |
Typenumeration: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Überschreibungen für das Dateisuchtool | No | |
| └– max_num_results | integer | Die maximale Anzahl von Ergebnissen, die das Dateisuchtool ausgeben soll. Der Standardwert ist 20 für GPT-4*-Modelle und 5 für GPT-3.5-Turbo. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Beachten Sie, dass das Dateisuchtool möglicherweise weniger als max_num_results Ergebnisse ausgibt. |
No | |
| type | string | Die Art des Tools, das definiert wird: file_search |
Yes |
Typenumeration: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Die Art des Tools, das definiert wird: file_search |
Yes |
Typenumeration: assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktionsdefinition. | Yes | |
| └– Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| └– Name | string | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | No | |
| └- Parameter | chatCompletionFunctionParameters | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung guide/ und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. | No | |
| type | string | Die Art des Tools, das definiert wird: function |
Yes |
Typenumeration: assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Die Anzahl der neuesten Nachrichten aus dem Thread, wenn der Kontext für die Ausführung konstruiert wird. | No | |
| type | string | Die für den Thread zu verwendende Kürzungsstrategie. Der Standardwert lautet auto. Bei Verwendung von last_messages wird der Thread auf die n neuesten Nachrichten im Thread gekürzt. Bei Verwendung von auto werden Nachrichten in der Mitte des Threads gelöscht, um der Kontextlänge des Modells (max_prompt_tokens) zu entsprechen. |
Yes |
Typenumeration: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Mögliche Werte für diese Komponente:
assistantsNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └– Name | string | Der Name der aufzurufenden Funktion. | No | |
| type | string | Der Typ des Tools. Wenn der Typ function ist, muss der Funktionsname festgelegt werden. |
Yes |
Typenumeration: AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Stellt einen Ausführungslauf auf einem Thread dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der für diese Ausführung verwendet wird | Yes | |
| cancelled_at | integer | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgebrochen wurde. | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde | Yes | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft | Yes | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| incomplete_details | object | Details zum Grund für die unvollständige Ausführung. Ist null, wenn die Ausführung nicht unvollständig ist. |
Yes | |
| └– Grund | string | Der Grund für die unvollständige Ausführung. Gibt an, welcher spezifische Tokengrenzwert im Laufe der Ausführung erreicht wurde. | No | |
| instructions | string | Die Anweisungen, die der Assistent für diese Ausführung verwendet hat | Yes | |
| last_error | object | Der letzte Fehler im Zusammenhang mit dieser Ausführung. Ist null, wenn keine Fehler vorliegen. |
Yes | |
| └– Code | string | Einer der folgenden Werte: server_error oder rate_limit_exceeded. |
No | |
| └– Nachricht | string | Eine für Menschen lesbare Beschreibung des Fehlers. | No | |
| max_completion_tokens | integer | Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden |
Yes | |
| max_prompt_tokens | integer | Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden |
Yes | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Yes | |
| model | string | Das Modell, das der Assistent für diese Ausführung verwendet hat. | Yes | |
| object | string | Der Objekttyp, der immer thread.run ist. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| required_action | object | Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. |
Yes | |
| └– submit_tool_outputs | object | Details zu den Toolausgaben, die zum Forsetzen dieser Ausführung erforderlich sind | No | |
| └- tool_calls | array | Eine Liste mit den relevanten Toolaufrufen. | No | |
| └– Typ | enum | Dieser Wert ist vorerst immer submit_tool_outputs.Möglicher Wert: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Yes | |
| started_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde | Yes | |
| status | string | Der Status der Ausführung, entweder queued, in_progress, requires_action, cancelling, cancelled, failed, completed oder expired |
Yes | |
| temperature | number | Die für diese Ausführung verwendete Temperatur für die Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. | No | |
| thread_id | string | Die ID der Threads, die als Teil dieser Ausführung ausgeführt wurden. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Yes | |
| tools | array | Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat | Yes | [] |
| top_p | number | Der für diese Ausführung verwendete Wert für die Nukleus-Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. | No | |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Yes | |
| usage | runCompletionUsage | Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht in einem Endzustand (d. h. in_progress, queued usw.) befindet. |
Yes |
Objektenumeration: runObjectType
| Value | Description |
|---|---|
| thread.run | Der Ausführungsobjekttyp (immer „thread.run“). |
Statusenumeration: RunObjectStatus
| Value | Description |
|---|---|
| queued | Der Zustand „queued“ |
| in_progress | Der Zustand „in_progress“ |
| requires_action | Der Zustand „required_action“ |
| cancelling | Der Zustand „cancelling“ |
| cancelled | Der Zustand „cancelled“ |
| failed | Der Zustand „failed“ |
| completed | Der Zustand „completed“ |
| expired | Der Zustand „abgelaufen“ |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | No | |
| additional_messages | array | Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. | No | |
| assistant_id | string | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Yes | |
| instructions | string | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | Die ID des Modells, das für diese Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
| tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
| tool_outputs | array | Eine Liste der Tools, für die die Ausgaben übermittelt werden | Yes |
runToolCallObject
Toolaufrufobjekte
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktionsdefinition. | Yes | |
| └- Argumente | string | Die Argumente, von denen das Modell erwartet, dass Sie sie an die Funktion übergeben. | No | |
| └– Name | string | Der Name der Funktion. | No | |
| id | string | Die ID des Toolaufrufs Auf diese ID muss verwiesen werden, wenn Sie die Toolausgaben mit „Toolausgaben übermitteln“ zum Ausführen des Endpunkts übermitteln. | Yes | |
| type | string | Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Dieser Wert ist vorerst immer function. |
Yes |
Typenumeration: RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der für diese Ausführung verwendet werden soll | Yes | |
| instructions | string | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| max_completion_tokens | integer | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| max_prompt_tokens | integer | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| model | string | Die ID der Modelle, die zum Ausführen dieser Ausführung verwendet werden sollen. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | No | |
| parallel_tool_calls | ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | True |
| response_format | assistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung auf { "type": "json_schema", "json_schema": {...} } aktiviert strukturierte Ausgaben, die sicherstellen, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig: Wenn Sie den JSON-Modus verwenden, müssen Sie selbst das Modell auch über eine System- oder Benutzernachricht anweisen, JSON-Code zu erzeugen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
No | |
| stream | boolean | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
No | |
| stream_options | chatCompletionStreamOptions | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
No | None |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Die ID des an diesen Assistenten angefügten Vektorspeichers. An den Assistenten kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| tools | array | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | No | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
No | 1 |
| truncation_strategy | truncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | No |
threadObject
Stellt einen Thread dar, der Nachrichten enthält.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Yes | |
| object | string | Der Objekttyp, der immer thread ist. |
Yes | |
| tool_resources | object | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
Yes | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No |
Objektenumeration: ThreadObjectType
| Value | Description |
|---|---|
| thread | Die Art des Threadobjekts (immer thread). |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Eine Liste der Nachrichten, mit der der Thread gestartet werden soll. | No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No | |
| └– Vektorspeicher | array | Ein Hilfsprogramm, das dazu dient, einen Vektorspeicher mit Datei-IDs (file_ids) zu erstellen und an diesen Thread anzufügen. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| tool_resources | object | Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
No | |
| └– code_interpreter | object | No | ||
| └– file_ids | array | Eine Liste mit Datei-IDs, die für das Tool code_interpreter zur Verfügung gestellt wurden. Dem Tool können maximal 20 Dateien zugeordnet sein. |
No | [] |
| └– Dateisuche | object | No | ||
| └– vector_store_ids | array | Der an diesen Thread angefügte Vektorspeicher. An den Thread kann maximal ein einzelner Vektorspeicher angefügt werden. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objektenumeration: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | Der Zustand des gelöschten Threadantwortobjekts (thread.deleted) |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Stellt eine Nachricht in einem Thread dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Falls zutreffend, die ID des Assistenten, der diese Nachricht erstellt hat. | Yes | |
| attachments | array | Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt wurden. | Yes | |
| completed_at | integer | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht vervollständigt wurde. | Yes | |
| content | array | Der Inhalt der Nachricht im Textarray und/oder Bildern. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht erstellt wurde. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| incomplete_at | integer | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht als unvollständig markiert wurde. | Yes | |
| incomplete_details | object | Gibt im Falle einer unvollständigen Nachricht an, warum die Nachricht unvollständig ist. | Yes | |
| └– Grund | string | Der Grund, warum die Nachricht unvollständig ist. | No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Yes | |
| object | string | Der Objekttyp, der immer thread.message ist. |
Yes | |
| role | string | Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant. |
Yes | |
| run_id | string | Falls zutreffend, die ID der Ausführung, die der Erstellung dieser Nachricht zugeordnet ist. | Yes | |
| status | string | Der Status der Nachricht (entweder in_progress, incomplete oder completed). |
Yes | |
| thread_id | string | Die Threads-ID, zu der diese Nachricht gehört. | Yes |
Objektenumeration: MessageObjectType
| Value | Description |
|---|---|
| thread.message | Der Nachrichtenobjekttyp (thread.message). |
Statusenumeration: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
Rollenenumeration: MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Das Delta, das die Felder enthält, die sich in der Nachricht geändert haben | Yes | |
| └– Inhalt | array | Der Inhalt der Nachricht im Textarray und/oder Bildern. | No | |
| └– Rolle | string | Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant. |
No | |
| id | string | Der Bezeichner der Nachricht, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| object | string | Der Objekttyp, der immer thread.message.delta ist. |
Yes |
Objektenumeration: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Eine Liste mit Dateien, die an die Nachricht angefügt sind, und den Tools, denen sie hinzugefügt werden sollen. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| role | string | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind: - user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
Yes |
Rollenenumeration: CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objektenumeration: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | Der Status des Antwortobjekts für das Löschen einer Nachricht |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └– file_id | string | Die Datei-ID des Bilds im Nachrichteninhalt. | No | |
| type | string | Immer image_file. |
Yes |
Typenumeration: MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Der Bilddateityp des Nachrichteninhalts. |
messageContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └– Anmerkungen | array | No | ||
| └– Wert | string | Die Daten, aus denen der Text besteht. | No | |
| type | string | Immer text. |
Yes |
Typenumeration: messageContentTextObjectType
| Value | Description |
|---|---|
| text | Der Objekttyp des Texts im Nachrichteninhalt. |
messageContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „retrieval“ für die Dateisuche verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └– file_id | string | Die ID der spezifischen Datei, aus der das Zitat stammt. | No | |
| start_index | integer | Yes | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Yes | |
| type | string | Immer file_citation. |
Yes |
Typenumeration: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Der Objekttyp des Dateizitats. |
messageContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └– file_id | string | Die ID der generierten Datei. | No | |
| start_index | integer | Yes | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Yes | |
| type | string | Immer file_path. |
Yes |
Typenumeration: FilePathObjectType
| Value | Description |
|---|---|
| file_path | Der Objekttyp des Dateipfads. |
messageDeltaContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └– file_id | string | Die Datei-ID des Bilds im Nachrichteninhalt. | No | |
| index | integer | Der Index des Inhaltsteils in der Nachricht. | Yes | |
| type | string | Immer image_file. |
Yes |
Typenumeration: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Der Index des Inhaltsteils in der Nachricht. | Yes | |
| text | object | No | ||
| └– Anmerkungen | array | No | ||
| └– Wert | string | Die Daten, aus denen der Text besteht. | No | |
| type | string | Immer text. |
Yes |
Typenumeration: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „file_search“ für die Dateisuche verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └– file_id | string | Die ID der spezifischen Datei, aus der das Zitat stammt. | No | |
| └- Zitat | string | Das spezifische Zitat in der Datei. | No | |
| index | integer | Der Index der Anmerkung im Textinhaltsteil. | Yes | |
| start_index | integer | No | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
| type | string | Immer file_citation. |
Yes |
Typenumeration: MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └– file_id | string | Die ID der generierten Datei. | No | |
| index | integer | Der Index der Anmerkung im Textinhaltsteil. | Yes | |
| start_index | integer | No | ||
| text | string | Der Text im Nachrichteninhalt, der ersetzt werden muss. | No | |
| type | string | Immer file_path. |
Yes |
Typenumeration: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Stellt einen Schritt in einer Ausführung dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Die ID des Assistenten, der dem Ausführungsschritt zugeordnet ist | Yes | |
| cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgebrochen wurde | Yes | |
| completed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgeschlossen wurde | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt erstellt wurde | Yes | |
| expired_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt abgelaufen ist. Ein Schritt gilt als abgelaufen, wenn die übergeordnete Ausführung abgelaufen ist. | Yes | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt fehlgeschlagen ist | Yes | |
| id | string | Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann | Yes | |
| last_error | object | Der letzte Fehler im Zusammenhang mit diesem Ausführungsschritt. Ist null, wenn keine Fehler vorliegen. |
Yes | |
| └– Code | string | Einer der folgenden Werte: server_error oder rate_limit_exceeded. |
No | |
| └– Nachricht | string | Eine für Menschen lesbare Beschreibung des Fehlers. | No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Yes | |
| object | string | Der Objekttyp, der immer assistant.run.step ist. |
Yes | |
| run_id | string | Die ID der Ausführung, zu der dieser Ausführungsschritt gehört | Yes | |
| status | string | Der Status der Ausführung (in_progress, cancelled, failed, completed oder expired). |
Yes | |
| step_details | runStepDetailsMessageCreationObject oder runStepDetailsToolCallsObject | Die Details des Ausführungsschritts | Yes | |
| thread_id | string | Die ID der ausgeführten Threads. | Yes | |
| type | string | Die Art des Ausführungsschritts (message_creation oder tool_calls). |
Yes |
Objektenumeration: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Der Objekttyp, der immer assistant.run.step ist. |
Typenumeration: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | Der Ausführungsschritt „message_creation“ |
| tool_calls | Der Ausführungsschritt „tool_calls“ |
Statusenumeration: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | Der Ausführungsstatus „in_progress“ |
| cancelled | Der Ausführungsstatus „cancelled“ |
| failed | Der Ausführungsstatus „cancelled“ |
| completed | Der Ausführungsstatus „cancelled“ |
| expired | Der Ausführungsstatus „cancelled“ |
runStepDeltaObject
Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Das Delta mit den Feldern, die sich im Ausführungsschritt geändert haben. | Yes | |
| └– step_details | runStepDeltaStepDetailsMessageCreationObject oder runStepDeltaStepDetailsToolCallsObject | Die Details des Ausführungsschritts | No | |
| id | string | Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann | Yes | |
| object | string | Der Objekttyp, der immer thread.run.step.delta ist. |
Yes |
Objektenumeration: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Details zur Nachrichterstellung durch den Ausführungsschritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └– Nachrichten-ID | string | Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. | No | |
| type | string | Immer message_creation. |
Yes |
Typenumeration: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Details zur Nachrichterstellung durch den Ausführungsschritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └– Nachrichten-ID | string | Die ID der Nachricht, die von diesem Ausführungsschritt erstellt wurde. | No | |
| type | string | Immer message_creation. |
Yes |
Typenumeration: RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Details des Toolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter, retrieval oder function. |
Yes | |
| type | string | Immer tool_calls. |
Yes |
Typenumeration: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Details des Toolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Tooltypen zugeordnet sein: code_interpreter, file_search oder function. |
No | |
| type | string | Immer tool_calls. |
Yes |
Typenumeration: RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Die Definition des Code-Interpreter-Tools. | Yes | |
| └– Eingabe | string | Die Eingabe für den Code-Interpreter-Toolaufruf. | No | |
| └─ Ausgaben | array | Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bilder (image). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt. |
No | |
| id | string | Die ID des Toolaufrufs | Yes | |
| type | string | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter. |
Yes |
Typenumeration: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Die Definition des Code-Interpreter-Tools. | No | |
| └– Eingabe | string | Die Eingabe für den Code-Interpreter-Toolaufruf. | No | |
| └─ Ausgaben | array | Die Ausgaben des Code-Interpreter-Toolaufrufs. Der Code-Interpreter kann eines oder mehrere Elemente ausgeben, einschließlich Text (logs) oder Bilder (image). Jedes dieser Elemente wird durch einen anderen Objekttyp dargestellt. |
No | |
| id | string | Die ID des Toolaufrufs | No | |
| index | integer | Der Index des Toolaufrufs im Toolaufruf-Array. | Yes | |
| type | string | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter. |
Yes |
Typenumeration: RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Textausgabe des Code-Interpreter-Toolaufrufs. | Yes | |
| type | string | Immer logs. |
Yes |
Typenumeration: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Der Index der Ausgabe im Ausgaben-Array. | Yes | |
| logs | string | Die Textausgabe des Code-Interpreter-Toolaufrufs. | No | |
| type | string | Immer logs. |
Yes |
Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └– file_id | string | Die Datei-ID des Bilds. | No | |
| type | string | Immer image. |
Yes |
Typenumeration: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └– file_id | string | Die Datei-ID des Bilds. | No | |
| index | integer | Der Index der Ausgabe im Ausgaben-Array. | Yes | |
| type | string | Immer image. |
Yes |
Typenumeration: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Ist vorerst immer ein leeres Objekt. | Yes | |
| └- Ergebnisse | array | Die Ergebnisse der Dateisuche. | No | |
| id | string | Die ID des Toolaufrufobjekts. | Yes | |
| type | string | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer file_search. |
Yes |
Typenumeration: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Eine Ergebnisinstanz der Dateisuche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur einbezogen, wenn er über den Include-Abfrageparameter angefordert wird. | No | |
| file_id | string | Die ID der Datei, in der das Ergebnis gefunden wurde. | Yes | |
| file_name | string | Der Name der Datei, in der das Ergebnis gefunden wurde. | Yes | |
| score | number | Die Ergebnisbewertung. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Ist vorerst immer ein leeres Objekt. | Yes | |
| id | string | Die ID des Toolaufrufobjekts. | No | |
| index | integer | Der Index des Toolaufrufs im Toolaufruf-Array. | Yes | |
| type | string | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer retrieval. |
Yes |
Typenumeration: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Definition der aufgerufenen Funktion. | Yes | |
| └- Argumente | string | Die an die Funktion übergebenen Argumente. | No | |
| └– Name | string | Der Name der Funktion. | No | |
| └─ Ausgabe | string | Die Ausgabe der Funktion. Ist null, wenn die Ausgaben noch nicht übermittelt wurden. |
No | |
| id | string | Die ID des Toolaufrufobjekts. | Yes | |
| type | string | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function. |
Yes |
Typenumeration: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Definition der aufgerufenen Funktion. | No | |
| └- Argumente | string | Die an die Funktion übergebenen Argumente. | No | |
| └– Name | string | Der Name der Funktion. | No | |
| └─ Ausgabe | string | Die Ausgabe der Funktion. Ist null, wenn die Ausgaben noch nicht übermittelt wurden. |
No | |
| id | string | Die ID des Toolaufrufobjekts. | No | |
| index | integer | Der Index des Toolaufrufs im Toolaufruf-Array. | Yes | |
| type | string | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function. |
Yes |
Typenumeration: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at. |
Yes | |
| days | integer | Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. | Yes |
Ankerenumeration: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Der Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. |
vectorStoreObject
Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. | Yes | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| expires_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. | No | |
| file_counts | object | Yes | ||
| └– abgebrochen | integer | Die Anzahl von Dateien, die abgebrochen wurden. | No | |
| └– abgeschlossen | integer | Die Anzahl erfolgreich verarbeiteter Dateien. | No | |
| └– fehlgeschlagen | integer | Die Anzahl von Dateien, die nicht verarbeitet werden konnten. | No | |
| └─ in Bearbeitung | integer | Die Anzahl von Dateien, die derzeit verarbeitet werden. | No | |
| └– Gesamtsumme | integer | Die Gesamtanzahl der Dateien. | No | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| last_active_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. | Yes | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
Yes | |
| name | string | Der Name des Vektorspeichers. | Yes | |
| object | enum | Der Objekttyp, der immer vector_store ist.Möglicher Wert: vector_store |
Yes | |
| status | string | Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist. |
Yes | |
| usage_bytes | integer | Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. | Yes |
Statusenumeration: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
No | |
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| metadata | object | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objektenumeration: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | Der Status des Antwortobjekts für das Löschen eines Vektorspeichers |
vectorStoreFileObject
Eine Liste der an einen Vektorspeicher angefügten Dateien.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam oder staticChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
No | |
| created_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| last_error | object | Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null, wenn keine Fehler vorliegen. |
Yes | |
| └– Code | string | Einer von der folgenden Werte: server_error oder invalid_file oder unsupported_file. |
No | |
| └– Nachricht | string | Eine für Menschen lesbare Beschreibung des Fehlers. | No | |
| object | string | Der Objekttyp, der immer vector_store.file ist. |
Yes | |
| status | string | Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist. |
Yes | |
| usage_bytes | integer | Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. | Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Yes |
Objektenumeration: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Statusenumeration: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Immer other. |
Yes |
Typenumeration: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Immer static. |
Yes |
Typenumeration: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf. |
Yes | |
| max_chunk_size_tokens | integer | Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096. |
Yes |
autoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Immer auto.Möglicher Wert: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Immer static.Möglicher Wert: static |
Yes |
chunkingStrategyRequestParam
Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet.
Mögliche Werte für diese Komponente:
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No | |
| file_id | string | Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Objektenumeration: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. | Yes | |
| file_counts | object | Yes | ||
| └– abgebrochen | integer | Die Anzahl von Dateien, die abgebrochen wurden. | No | |
| └– abgeschlossen | integer | Die Anzahl verarbeiteter Dateien. | No | |
| └– fehlgeschlagen | integer | Die Anzahl von Dateien, die nicht verarbeitet werden konnten. | No | |
| └─ in Bearbeitung | integer | Die Anzahl von Dateien, die derzeit verarbeitet werden. | No | |
| └– Gesamtsumme | integer | Die Gesamtanzahl der Dateien. | No | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Yes | |
| object | string | Der Objekttyp, der immer vector_store.file_batch ist. |
Yes | |
| status | string | Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed). |
Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Yes |
Objektenumeration: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Statusenumeration: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
No | |
| file_ids | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Yes |
assistantStreamEvent
Stellt ein Ereignis dar, das beim Streamen einer Ausführung ausgegeben wird.
Jedes Ereignis in einem vom Server gesendeten Ereignisdatenstrom verfügt über eine event-Eigenschaft und über eine data-Eigenschaft:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Ereignisse werden ausgegeben, wenn ein neues Objekt erstellt wird, in einen neuen Zustand übergeht oder in Teilen (Deltas) gestreamt wird. Beispielsweise wird thread.run.created ausgegeben, wenn eine neue Ausführung erstellt wird, und thread.run.completed, wenn eine Ausführung abgeschlossen wird. Wenn sich ein Assistent entscheidet, während einer Ausführung eine Nachricht zu erstellen, wird Folgendes in der angegebenen Reihenfolge ausgegeben: thread.message.created event, ein thread.message.in_progress-Ereignis, mehrere thread.message.delta-Ereignisse und schließlich ein thread.message.completed-Ereignis.
Im Laufe der Zeit kommen ggf. noch weitere Ereignisse hinzu. Daher empfiehlt es sich, unbekannte Ereignisse ordnungsgemäß in Ihrem Code zu behandeln.
Mögliche Werte für diese Komponente:
threadStreamEvent
Mögliche Werte für diese Komponente:
thread.created
Tritt auf, wenn ein neuer Thread erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Stellt einen Thread dar, der Nachrichten enthält. | Yes | |
| event | string | Yes |
Daten:threadObject
Ereignisenumeration: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | Das Threaderstellungsereignis. |
runStreamEvent
Mögliche Werte für diese Komponente:
thread.run.created
Tritt auf, wenn eine neue Ausführung erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Tritt auf, wenn eine Ausführung in den queued-Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Tritt auf, wenn eine Ausführung in einen Status vom Typ in_progress wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Tritt auf, wenn eine Ausführung in den requires_action-Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Tritt auf, wenn eine Ausführung abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Tritt auf, wenn eine Ausführung fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Tritt auf, wenn eine Ausführung in den cancelling-Status wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Tritt auf, wenn eine Ausführung abgebrochen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Tritt auf, wenn eine Ausführung verfällt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Stellt einen Ausführungslauf auf einem Thread dar. | Yes | |
| event | string | Yes |
Daten:runObject
Ereignisenumeration: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Mögliche Werte für diese Komponente:
thread.run.step.created
Tritt auf, wenn ein Ausführungsschritt erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Yes | |
| event | string | Yes |
Daten:runStepObject
Ereignisenumeration: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Tritt auf, wenn ein Ausführungsschritt in den in_progress-Zustand übergeht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Yes | |
| event | string | Yes |
Daten:runStepObject
Ereignisenumeration: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Tritt auf, wenn Teile eines Ausführungsschritts gestreamt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Stellt ein Ausführungsschrittdelta dar (also alle Felder für einen Ausführungsschritt, die ggf. während des Streamings geändert wurden). |
Yes | |
| event | string | Yes |
Daten:runStepDeltaObject
Ereignisenumeration: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Tritt auf, wenn ein Ausführungsschritt abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Yes | |
| event | string | Yes |
Daten:runStepObject
Ereignisenumeration: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Tritt auf, wenn ein Ausführungsschritt fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Yes | |
| event | string | Yes |
Daten:runStepObject
Ereignisenumeration: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Tritt auf, wenn ein Ausführungsschritt abgebrochen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Yes | |
| event | string | Yes |
Daten:runStepObject
Ereignisenumeration: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Tritt auf, wenn ein Ausführungsschritt verfällt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Stellt einen Schritt in einer Ausführung dar. |
Yes | |
| event | string | Yes |
Daten:runStepObject
Ereignisenumeration: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Mögliche Werte für diese Komponente:
thread.message.created
Tritt auf, wenn eine Nachricht erstellt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Thread dar. | Yes | |
| event | string | Yes |
Daten:messageObject
Ereignisenumeration: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Tritt auf, wenn eine Nachricht in einen Zustand vom Typ in_progress wechselt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Thread dar. | Yes | |
| event | string | Yes |
Daten:messageObject
Ereignisenumeration: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Tritt auf, wenn Teile einer Nachricht gestreamt werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Stellt ein Nachrichtendelta dar (also alle Felder für eine Nachricht, die ggf. während des Streamings geändert wurden). |
Yes | |
| event | string | Yes |
Daten:messageDeltaObject
Ereignisenumeration: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Tritt auf, wenn eine Nachricht abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Thread dar. | Yes | |
| event | string | Yes |
Daten:messageObject
Ereignisenumeration: MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Tritt auf, wenn eine Nachricht endet, bevor sie abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Stellt eine Nachricht in einem Thread dar. | Yes | |
| event | string | Yes |
Daten:messageObject
Ereignisenumeration: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Mögliche Werte für diese Komponente:
Click
Ein Klickvorgang.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Gibt an, welche Maustaste während des Klickens gedrückt wurde.
left, right, wheel, back oder forwardMögliche Werte: left, , rightwheel, , backforward |
Yes | |
| type | enum | Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf click gesetzt.Möglicher Wert: click |
Yes | |
| x | integer | Die x-Koordinate, an der der Klick aufgetreten ist. |
Yes | |
| y | integer | Die y-Koordinate, an der der Klick aufgetreten ist. |
Yes |
CodeInterpreterFileOutput
Die Ausgabe eines Code-Interpreter-Toolaufrufs, bei der es sich um eine Datei handelt
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Der Typ der Ausgabedatei des Codeinterpreters. Immer files.Möglicher Wert: files |
Yes |
CodeInterpreterTextOutput
Die Ausgabe eines Code-Interpreter-Toolaufrufs, bei der es sich um Text handelt
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Protokolle des Codedolmetscher-Toolaufrufs. |
Yes | |
| type | enum | Der Typ der Textausgabe des Codedolmetschers. Immer logs.Möglicher Wert: logs |
Yes |
CodeInterpreterTool
Ein Tool, das Code ausführt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Die IDs der Dateien, auf denen der Code ausgeführt werden soll. |
Yes | |
| type | enum | Der Typ des Codedolmetschertools. Immer code_interpreter.Möglicher Wert: code_interpreter |
Yes |
CodeInterpreterToolCall
Ein Toolaufruf zum Ausführen von Code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der auszuführende Code. |
Yes | |
| id | string | Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. |
Yes | |
| results | array | Die Ergebnisse des Code-Interpreter-Toolaufrufs. |
Yes | |
| status | enum | Der Status des Code-Interpreter-Werkzeugaufrufs. Mögliche Werte: in_progress, , interpretingcompleted |
Yes | |
| type | enum | Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.Möglicher Wert: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Mögliche Werte für diese Komponente:
ComparisonFilter
Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der Schlüssel für den Vergleich mit dem Wert | Yes | |
| type | enum | Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte- eq: entspricht- ne: ungleich- gt:größer als- gte: größer oder gleich- lt:weniger als- lte: kleiner oder gleichMögliche Werte: eq, , ne, gtgte, , , ltlte |
Yes | |
| value | Zeichenfolge oder Zahl oder boolescher Wert | Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. | Yes |
CompoundFilter
Kombinieren mehrerer Filter mit and oder or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Yes | |
| type | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Yes |
ComputerAction
Mögliche Werte für diese Komponente:
ComputerScreenshotImage
Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Der Bezeichner einer hochgeladenen Datei, die den Screenshot enthält. | No | |
| image_url | string | Die URL des Screenshotbilds. | No | |
| type | enum | Gibt den Ereignistyp an. Für einen Computer-Screenshot ist diese Eigenschaft immer auf computer_screenshot.Möglicher Wert: computer_screenshot |
Yes |
ComputerTool
Ein Tool, das einen virtuellen Computer steuert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | Die Höhe der Computeranzeige. |
Yes | |
| display_width | number | Die Breite der Computeranzeige. |
Yes | |
| environment | enum | Der Typ der zu steuernden Computerumgebung. Mögliche Werte: mac, , windows, ubuntubrowser |
Yes | |
| type | enum | Der Typ des Tools zur Computernutzung. Immer computer_use_preview.Möglicher Wert: computer-use-preview |
Yes |
ComputerToolCall
Ein Toolaufruf eines von einem Computer verwendeten Tools
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird |
Yes | |
| id | string | Die eindeutige ID des Computeraufrufs. | Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ des Computeraufrufs. Immer computer_call.Möglicher Wert: computer_call |
Yes |
ComputerToolCallOutput
Die Ausgabe eines Computertoolaufrufs
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. |
No | |
| call_id | string | Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. |
Yes | |
| id | string | Die ID der Ausgabe des Computertoolsaufrufs |
No | |
| output | ComputerScreenshotImage | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed oder incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.Möglicher Wert: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. |
No | |
| call_id | string | Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. |
Yes | |
| id | string | Die eindeutige ID der Ausgabe des Computeraufruftools |
Yes | |
| output | ComputerScreenshotImage | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed oder incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.Möglicher Wert: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Eine ausstehende Sicherheitsüberprüfung für den Computertelefonanruf.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Typ der ausstehenden Sicherheitsüberprüfung. | Yes | |
| id | string | Die ID der ausstehenden Sicherheitsprüfung | Yes | |
| message | string | Details zur ausstehenden Sicherheitsüberprüfung. | Yes |
Content
Mehr modaler Eingabe- und Ausgabeinhalt.
Mögliche Werte für diese Komponente:
Coordinate
Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | Die x-Koordinate. |
Yes | |
| y | integer | Die y-Koordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Modell, das zum Generieren der Antworten verwendet wird. | No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | Zeichenfolge oder Array | Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. | Yes | |
| instructions | string | Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein. Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. | No | |
| store | boolean | Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. |
No | True |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. | No | False |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ Format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools |
No | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster durch Entfernen von Eingabeelementen in der Mitte der Unterhaltung anzupassen. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
DoubleClick
Eine Doppelklickaktion
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf double_click gesetzt.Möglicher Wert: double_click |
Yes | |
| x | integer | Die x-Koordinate, an der der Doppelklick aufgetreten ist. |
Yes | |
| y | integer | Die y-Koordinate, an der der Doppelklick aufgetreten ist. |
Yes |
Drag
Eine Ziehaktion
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf drag gesetzt.Möglicher Wert: drag |
Yes |
EasyInputMessage
Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string oder InputMessageContentList | Text-, Bild- oder Audioeingabe für das Modell, um eine Antwort zu generieren. Kann auch frühere Assistentenantworten enthalten. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer der folgenden Werte: user, assistant, system oder developer.Mögliche Werte: user, , assistant, systemdeveloper |
Yes | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Möglicher Wert: message |
No |
FileCitation
Ein Verweis auf eine Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Datei. |
Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. |
Yes | |
| type | enum | Der Typ des Dateizitats Immer file_citation.Möglicher Wert: file_citation |
Yes |
FilePath
Ein Pfad zu einer Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Datei. |
Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. |
Yes | |
| type | enum | Der Typ des Dateipfads. Immer file_path.Möglicher Wert: file_path |
Yes |
FileSearchRanker
Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet.
| Property | Value |
|---|---|
| Description | Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | No | |
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. |
No | |
| ranking_options | object | Sortieroptionen für die Suche. | No | |
| └– Ranker | enum | Der Rangfolger, der für die Dateisuche verwendet werden soll. Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ Punktschwelle | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. |
No | 0 |
| type | enum | Der Typ des Dateisuchtools. Immer file_search.Möglicher Wert: file_search |
Yes | |
| vector_store_ids | array | Die IDs der zu durchsuchenden Vektorspeicher. |
Yes |
FileSearchToolCall
Die Ergebnisse eines Dateisuchtoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die eindeutige ID des Aufrufs des Dateisuchtools. |
Yes | |
| queries | array | Die Zum Suchen nach Dateien verwendeten Abfragen. |
Yes | |
| results | array | Die Ergebnisse des Aufrufs des Dateisuchtools. |
No | |
| status | enum | Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress, searching, incomplete oder failed,Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Yes | |
| type | enum | Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.Möglicher Wert: file_search_call |
Yes |
FunctionTool
Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. |
No | |
| name | string | Der Name der aufzurufenden Funktion. |
Yes | |
| parameters | object | Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. |
Yes | |
| strict | boolean | Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standardwert: true. |
Yes | |
| type | enum | Der Typ des Funktionstools. Immer function.Möglicher Wert: function |
Yes |
FunctionToolCall
Ein Toolaufruf zum Ausführen einer Funktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. |
Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. |
Yes | |
| id | string | Die eindeutige ID des Aufrufs des Funktionswerkzeugs. |
Yes | |
| name | string | Der Name der auszuführenden Funktion. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ des Funktionswerkzeuganrufs. Immer function_call.Möglicher Wert: function_call |
Yes |
FunctionToolCallOutput
Die Ausgabe eines Funktionstoolaufrufs
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. |
Yes | |
| id | string | Die eindeutige ID der Ausgabe des Funktionstoolaufrufs Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. |
No | |
| output | string | Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.Möglicher Wert: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. |
Yes | |
| id | string | Die eindeutige ID der Ausgabe des Funktionsaufruftools |
Yes | |
| output | string | Eine JSON-Zeichenfolge der Ausgabe des Funktionswerzeugaufrufs. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.Möglicher Wert: function_call_output |
Yes |
includable
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
-
file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein. -
computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
| Property | Value |
|---|---|
| Description | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Eine Audioeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-codierte Audiodaten. |
Yes | |
| format | enum | Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.Mögliche Werte: mp3, wav |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_audio.Möglicher Wert: input_audio |
Yes |
InputContent
Mögliche Werte für diese Komponente:
InputFile
Eine Dateieingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Der Inhalt der Datei, die an das Modell gesendet werden soll. |
No | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. |
No | |
| filename | string | Der Name der Datei, die an das Modell gesendet werden soll. |
No | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Möglicher Wert: input_file |
Yes |
InputImage
Eine Bildeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low oder auto. Wird standardmäßig auf auto festgelegt.Mögliche Werte: high, , lowauto |
Yes | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. |
No | |
| image_url | string | Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollständig qualifizierte URL oder ein base64-codiertes Bild innerhalb einer Daten-URL. |
No | |
| type | enum | Der Typ des Eingabeelements. Immer input_image.Möglicher Wert: input_image |
Yes |
InputItem
Mögliche Werte für diese Komponente:
InputMessage
Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält types. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, system oder developer.Mögliche Werte: user, , systemdeveloper |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf message festgelegt.Möglicher Wert: message |
No |
InputMessageContentList
Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhaltstypen enthält.
Für diese Komponente sind keine Eigenschaften definiert.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält types. |
Yes | |
| id | string | Die eindeutige ID der Nachrichteneingabe. |
Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, system oder developer.Mögliche Werte: user, , systemdeveloper |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf message festgelegt.Möglicher Wert: message |
No |
InputText
Eine Texteingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Die Texteingabe für das Modell. |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Möglicher Wert: input_text |
Yes |
Item
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Mögliche Werte für diese Komponente:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Die ID des zu referenzierenden Elements. |
Yes | |
| type | enum | Der Typ des zu referenzierenden Elements. Immer item_reference.Möglicher Wert: item_reference |
Yes |
ItemResource
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Mögliche Werte für diese Komponente:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | Die Tastenkombination, die das Modell gedrückt haben möchte. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress gesetzt.Möglicher Wert: keypress |
Yes |
Metadata
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Für diese Komponente sind keine Eigenschaften definiert.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Modell, das zum Generieren der Antworten verwendet wird. | No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
No | 1 |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
Move
Aktion zur Änderung der Mauszeigerposition
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf move gesetzt.Möglicher Wert: move |
Yes | |
| x | integer | Die x-Koordinate, zu der verschoben werden soll. |
Yes | |
| y | integer | Die y-Koordinate, zu der verschoben werden soll. |
Yes |
OutputAudio
Eine Audioausgabe aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-codierte Audiodaten aus dem Modell. |
Yes | |
| transcript | string | Die Transkription der Audiodaten aus dem Modell. |
Yes | |
| type | enum | Der Typ des Ausgabeaudios. Immer output_audio.Möglicher Wert: output_audio |
Yes |
OutputContent
Mögliche Werte für diese Komponente:
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. |
Yes | |
| call_id | string | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird |
Yes | |
| content | array | Begründung der Textinhalte. |
Yes | |
| id | string | Der eindeutige Bezeichner des Argumentationsinhalts. |
Yes | |
| name | string | Der Name der auszuführenden Funktion. |
Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. |
Yes | |
| queries | array | Die Zum Suchen nach Dateien verwendeten Abfragen. |
Yes | |
| results | array | Die Ergebnisse des Aufrufs des Dateisuchtools. |
No | |
| role | enum | Die Rolle der Ausgabemeldung. Immer assistant.Möglicher Wert: assistant |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ des Objekts. Immer reasoning.Möglicher Wert: reasoning |
Yes |
OutputMessage
Eine Ausgabemeldung aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt der Ausgabenachricht. |
Yes | |
| id | string | Die eindeutige ID der Ausgabenachricht. |
Yes | |
| role | enum | Die Rolle der Ausgabemeldung. Immer assistant.Möglicher Wert: assistant |
Yes | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, completed oder incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ der Ausgabemeldung. Immer message.Möglicher Wert: message |
Yes |
OutputText
Eine Textausgabe aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Die Anmerkungen der Textausgabe |
Yes | |
| text | string | Die Textausgabe aus dem Modell. |
Yes | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Möglicher Wert: output_text |
Yes |
RealtimeSessionCreateRequest
Objektkonfiguration der Echtzeitsitzung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden. Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird. |
No | |
| └– Typ | enum | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription, standardmäßig ausgeschaltet und kann auf null eingestellt werden, um es auszuschalten, wenn es einmal eingeschaltet ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Die Transkription wird asynchron über den Transkriptionsendpunkt ausgeführt und sollte als Anleitung für Eingabeaudioinhalte behandelt werden, anstatt genau das, was das Modell gehört hat. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └– Sprache | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ Modell | string | Das Modell, das für die Transkription verwendet werden soll: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1. |
No | |
| └– Eingabeaufforderung | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| instructions | string | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann zu Antwortinhalten und -formaten angewiesen werden (z. B. "sehr prägnant", "freundlich verhalten", "hier sind Beispiele für gute Antworten") und über Audioverhalten (z. B. "schnell sprechen", "Emotionen in die Stimme einfügen", "häufig lachen"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist. |
No | |
| max_response_output_tokens | ganze Zahl oder Zeichenfolge | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 ein, um die Ausgabetoken zu begrenzen, oder verwenden Sie inf für die maximal verfügbaren Token eines bestimmten Modells. Wird standardmäßig auf inf festgelegt. |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| model | string | Der Name der Bereitstellung, die für diese Sitzung verwendet wird |
No | |
| output_audio_format | enum | Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw.Bei pcm16 wird eine Abtastrate von 24 kHz für die Ausgabeaudiodaten verwendet.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Für Audiomodelle wird eine Temperatur von 0,8 dringend empfohlen, um eine optimale Leistung zu erzielen. |
No | 0.8 |
| tool_choice | string | Gibt an, wie das Modell Tools auswählt. Optionen sind auto, none, requiredoder geben Sie eine Funktion an. |
No | auto |
| tools | array | Tools (Funktionen), die für das Modell verfügbar sind. | No | |
| turn_detection | object | Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └– create_response | boolean | Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt. |
No | True |
| └– Eifer | enum | Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht medium.Mögliche Werte: low, , medium, highauto |
No | |
| └– interrupt_response | boolean | Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt. |
No | True |
| └– prefix_padding_ms | integer | Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms |
No | |
| └– Dauer_der_Stille_in_ms | integer | Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └– Schwellenwert | number | Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └– Typ | enum | Art der Kurvenerkennung. Mögliche Werte: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Eine neue Realtime-Sitzungskonfiguration mit einem kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Kurzlebiger Schlüssel, der von der API zurückgegeben wird. | Yes | |
| └– abläuft_am | integer | Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab. |
No | |
| └– Wert | string | Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte. |
No | |
| input_audio_format | string | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription, standardmäßig ausgeschaltet und kann auf null eingestellt werden, um es auszuschalten, wenn es einmal eingeschaltet ist. Die Audiotranskription von Eingaben ist nicht nativ für das Modell, da das Modell Audio direkt nutzt. Transkriptionen werden asynchron über Whisper durchgeführt und sollten als grobe Orientierung betrachtet werden, anstatt als die vom Modell verstandene Darstellung. |
No | |
| └─ Modell | string | Das Modell, das für die Transkription verwendet werden soll, whisper-1 ist das einzige derzeit unterstützte Modell. |
No | |
| instructions | string | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann bezüglich der Antwortinhalte und -formate instruiert werden (z. B. "sei sehr prägnant", "sei freundlich", "hier sind Beispiele für gute Antworten") und das Audiobehavior (z. B. "sprechen Sie schnell", "Emotionen in die Stimme einfügen", "häufig lachen"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dieses Feld nicht festgelegt ist und im session.created Ereignis zu Beginn der Sitzung sichtbar ist. |
No | |
| max_response_output_tokens | ganze Zahl oder Zeichenfolge | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 ein, um die Ausgabetoken zu begrenzen, oder verwenden Sie inf für die maximal verfügbaren Token eines bestimmten Modells. Wird standardmäßig auf inf festgelegt. |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| output_audio_format | string | Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
No | |
| temperature | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8. |
No | |
| tool_choice | string | Gibt an, wie das Modell Tools auswählt. Optionen sind auto, none, requiredoder geben Sie eine Funktion an. |
No | |
| tools | array | Tools (Funktionen), die für das Modell verfügbar sind. | No | |
| turn_detection | object | Konfiguration für die Turnerkennung. Kann auf null eingestellt werden, um es auszuschalten. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. |
No | |
| └– prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms |
No | |
| └– Dauer_der_Stille_in_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └– Schwellenwert | number | Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └– Typ | string | Typ der Sprecherwechselerkennung. Derzeit wird nur server_vad unterstützt. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Echtzeit-Transkriptionssitzungsobjektkonfiguration.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.Für pcm16 muss die Audioeingabe als 16-Bit-PCM mit einer Abtastrate von 24 kHz, einem einzelnen Kanal (Mono) und der Little-Endian-Bytereihenfolge erfolgen.Mögliche Werte: pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Konfiguration zur Rauschunterdrückung bei Audioeingang. Dieser Wert kann auf null gesetzt werden, um ihn auszuschalten.Bei der Rauschunterdrücken werden Audiodaten, die dem Eingabeaudiopuffer hinzugefügt werden, gefiltert, bevor sie an VAD und das Modell gesendet werden. Durch die Filterung der Audiodaten können die Genauigkeit der VAD und der Sprecherwechselerkennung (Reduzierung falsch positiver Ergebnisse) sowie die Modellleistung verbessert werden, indem die Wahrnehmung der Eingabeaudiodaten verbessert wird. |
No | |
| └– Typ | enum | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.Mögliche Werte: near_field, far_field |
No | |
| input_audio_transcription | object | Konfiguration für die Eingabeaudiotranskription. Der Client kann optional die Sprache festlegen und zur Transkription auffordern, diese bieten zusätzliche Anleitungen für den Transkriptionsdienst. |
No | |
| └– Sprache | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ Modell | enum | Das Modell, das für die Transkription verwendet werden soll, umfasst die aktuellen Optionen gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 und whisper-1.Mögliche Werte: gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └– Eingabeaufforderung | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Für whisper-1 ist der Hinweis eine Liste von Schlüsselwörtern.Bei gpt-4o-transcribe Modellen ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| turn_detection | object | Konfiguration für die Sprecherwechselerkennung: Server-VAD oder semantische VAD. Dies kann auf null gesetzt werden, um es zu deaktivieren; in diesem Fall muss der Client die Modellantwort manuell auslösen.Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. Semantische VAD ist fortgeschrittener und verwendet ein Modell zur Sprecherwechselerkennung (in Verbindung mit VAD), um semantisch abzuschätzen, ob die benutzende Person zu Ende gesprochen hat. Anschließend wird dynamisch ein Timeout basierend auf dieser Wahrscheinlichkeit festgelegt. Wenn die benutzende Person etwa mit uhhm aufhört zu sprechen, legt das Modell eine niedrige Wahrscheinlichkeit für einen Sprecherwechsel fest und wartet länger, bis die Person weiterspricht. Dies kann für natürlichere Unterhaltungen nützlich sein, kann aber eine höhere Latenz haben. |
No | |
| └– create_response | boolean | Gibt an, ob automatisch eine Antwort generiert werden soll, wenn ein VAD-Beendigungsereignis auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └– Eifer | enum | Wird nur für semantic_vad -Modus verwendet. Die Eifer des Modells, zu reagieren.
low wartet länger, bis der Benutzer weiter spricht, high wird schneller reagieren.
auto ist der Standardwert und entspricht medium.Mögliche Werte: low, , medium, highauto |
No | |
| └– interrupt_response | boolean | Gibt an, ob eine aktuelle Antwort automatisch mit einer Ausgabe an die Standardkonversation (d. h. conversation von auto) unterbrochen werden soll, wenn ein VAD-Startereignis auftritt. Für Transkriptionssitzungen nicht verfügbar. |
No | True |
| └– prefix_padding_ms | integer | Wird nur für server_vad -Modus verwendet. Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms |
No | |
| └– Dauer_der_Stille_in_ms | integer | Wird nur für server_vad -Modus verwendet. Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └– Schwellenwert | number | Wird nur für server_vad -Modus verwendet. Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └– Typ | enum | Art der Kurvenerkennung. Mögliche Werte: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Eine neue Realtime-Transkriptionssitzungskonfiguration.
Wenn eine Sitzung über die REST-API auf dem Server erstellt wird, enthält das Sitzungsobjekt auch einen kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Kurzlebiger Schlüssel, der von der API zurückgegeben wird. Nur vorhanden, wenn die Sitzung über die REST-API auf dem Server erstellt wird. |
Yes | |
| └– abläuft_am | integer | Zeitstempel für den Zeitpunkt, zu dem das Token abläuft. Derzeit laufen alle Token nach einer Minute ab. |
No | |
| └– Wert | string | Kurzlebiger Schlüssel, der in Clientumgebungen verwendet werden kann, um Verbindungen mit der Realtime-API zu authentifizieren. Verwenden Sie dies in clientseitigen Umgebungen anstelle eines Standard-API-Tokens, das nur serverseitig verwendet werden sollte. |
No | |
| input_audio_format | string | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
No | |
| input_audio_transcription | object | Konfiguration des Transkriptionsmodells. |
No | |
| └– Sprache | string | Die Sprache der Audioeingabe. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| └─ Modell | enum | Das Modell, das für die Transkription verwendet werden soll. Kann gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15oder whisper-1sein.Mögliche Werte: gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15whisper-1 |
No | |
| └– Eingabeaufforderung | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. |
No | |
| modalities | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Um Audio zu deaktivieren, legen Sie dies auf ["text"] fest. |
No | ||
| turn_detection | object | Konfiguration für die Turnerkennung. Kann auf null eingestellt werden, um es auszuschalten. Server-VAD bedeutet, dass das Modell den Start und das Ende der Spracherkennung basierend auf der Audiolautstärke erkennt und am Ende der Benutzersprache reagiert. |
No | |
| └– prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. Standardeinstellung: 300 ms |
No | |
| └– Dauer_der_Stille_in_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Der Standardwert ist 500 ms. Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | |
| └– Schwellenwert | number | Der Aktivierungsschwellenwert für VAD (0,0 bis 1,0). Standardeinstellung: 0,5. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. |
No | |
| └– Typ | string | Typ der Sprecherwechselerkennung. Derzeit wird nur server_vad unterstützt. |
No |
Reasoning
Konfigurationsoptionen für Begründungsmodelle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
Yes | medium |
| summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer der folgenden Werte: concise oder detailed.Mögliche Werte: concise, detailed |
No |
ReasoningItem
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Begründung der Textinhalte. |
Yes | |
| id | string | Der eindeutige Bezeichner des Argumentationsinhalts. |
Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed oder incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
No | |
| type | enum | Der Typ des Objekts. Immer reasoning.Möglicher Wert: reasoning |
Yes |
Refusal
Eine Ablehnung des Modells
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die Erklärung der Ablehnung des Modells |
Yes | |
| type | enum | Die Art der Ablehnung. Immer refusal.Möglicher Wert: refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. |
Yes | |
| error | ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. |
Yes | |
| id | string | Eindeutiger Bezeichner für diese Antwort |
Yes | |
| incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. |
Yes | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| instructions | string | Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein. Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
Yes | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für Antworten generiert werden können, einschließlich sichtbarer Ausgabetoken und Konversationsstatus. |
No | |
| metadata | Metadata | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| model | string | Modell, das zum Generieren der Antworten verwendet wird. | Yes | |
| object | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Yes | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
Yes | |
| output_text | string | SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden. Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
Yes | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. |
No | |
| status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed, in_progress oder incomplete.Mögliche Werte: completed, , failed, in_progressincomplete |
No | |
| temperature | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Yes | 1 |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ Format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
Yes | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools |
Yes | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Yes | 1 |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| usage | ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. . |
No |
ResponseAudioDeltaEvent
Wird ausgegeben, wenn eine partielle Audioantwort vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Ein Block der Base64-codierten Antwortaudiobytes |
Yes | |
| type | enum | Typ des Ereignisses Immer response.audio.delta.Möglicher Wert: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Wird ausgegeben, wenn die Audioantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typ des Ereignisses Immer response.audio.done.Möglicher Wert: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Wird ausgegeben, wenn eine partielle Transkription von Audio vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Die partielle Transkription der Audioantwort. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.audio.transcript.delta.Möglicher Wert: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Wird ausgegeben, wenn die vollständige Audiotranskription abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Typ des Ereignisses Immer response.audio.transcript.done.Möglicher Wert: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Wird ausgegeben, wenn ein partieller Codeausschnitt vom Codedolmetscher hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Der partielle Codeausschnitt, der vom Codedolmetscher hinzugefügt wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird |
Yes | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.code.delta.Möglicher Wert: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Wird ausgegeben, wenn die Codeausschnittausgabe vom Codedolmetscher abgeschlossen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Die endgültige Ausgabe des Codeausschnitts durch den Code-Interpreter. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird |
Yes | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.code.done.Möglicher Wert: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird |
Yes | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.completed.Möglicher Wert: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird |
Yes | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.in_progress.Möglicher Wert: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Aufruf des Code-Interpreters verarbeitet wird |
Yes | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.interpreting.Möglicher Wert: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Typ des Ereignisses Immer response.completed.Möglicher Wert: response.completed |
Yes |
ResponseContentPartAddedEvent
Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des hinzugefügten Inhaltsteils. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Typ des Ereignisses Immer response.content_part.added.Möglicher Wert: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, der abgeschlossen ist. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Typ des Ereignisses Immer response.content_part.done.Möglicher Wert: response.content_part.done |
Yes |
ResponseCreatedEvent
Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Typ des Ereignisses Immer response.created.Möglicher Wert: response.created |
Yes |
ResponseError
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Der Fehlercode für die Antwort. |
Yes | |
| message | string | Eine für Menschen lesbare Beschreibung des Fehlers. |
Yes |
ResponseErrorCode
Der Fehlercode für die Antwort.
| Property | Value |
|---|---|
| Description | Der Fehlercode für die Antwort. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Wird ausgegeben, wenn ein Fehler auftritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Fehlercode. |
Yes | |
| message | string | Die Fehlermeldung. |
Yes | |
| param | string | Der Fehlerparameter. |
Yes | |
| type | enum | Typ des Ereignisses Immer error.Möglicher Wert: error |
Yes |
ResponseFailedEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Typ des Ereignisses Immer response.failed.Möglicher Wert: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde |
Yes | |
| type | enum | Typ des Ereignisses Immer response.file_search_call.completed.Möglicher Wert: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde |
Yes | |
| type | enum | Typ des Ereignisses Immer response.file_search_call.in_progress.Möglicher Wert: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Dateisuchaufruf sucht. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.file_search_call.searching.Möglicher Wert: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Das hinzugefügte Argumentdelta des Funktionsaufrufs |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird |
Yes | |
| type | enum | Typ des Ereignisses Immer response.function_call_arguments.delta.Möglicher Wert: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Wird ausgegeben, wenn Funktionsaufrufargumente finalisiert werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Funktionsaufrufargumente. | Yes | |
| item_id | string | Die ID des Elements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements. | Yes | |
| type | enum | Möglicher Wert: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Typ des Ereignisses Immer response.in_progress.Möglicher Wert: response.in_progress |
Yes |
ResponseIncompleteEvent
Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig beendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Typ des Ereignisses Immer response.incomplete.Möglicher Wert: response.incomplete |
Yes |
responseItemList
Eine Liste der Antwortelemente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. | Yes | |
| first_id | string | Die ID des ersten Elements in der Liste. | Yes | |
| has_more | boolean | Gibt an, ob weitere Elemente verfügbar sind. | Yes | |
| last_id | string | Die ID des letzten Elements in der Liste. | Yes | |
| object | enum | Der Typ des zurückgegebenen Objekts muss sein list.Möglicher Wert: list |
Yes |
ResponseModalities
Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:
["text", "audio"]
Für diese Komponente sind keine Eigenschaften definiert.
ResponseModalitiesTextOnly
Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Diese API unterstützt bald andere Ausgabemodalitäten, einschließlich Audio und Bilder.
Für diese Komponente sind keine Eigenschaften definiert.
ResponseOutputItemAddedEvent
Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Der Index des Ausgabeelements, das hinzugefügt wurde. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.output_item.added.Möglicher Wert: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Der Index des Ausgabeelements, das als erledigt markiert wurde. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.output_item.done.Möglicher Wert: response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Fügt eine Systemnachricht (oder Entwicklermitteilung) als erstes Element in den Kontext des Modells ein. Bei der Verwendung zusammen mit previous_response_id, werden die Anweisungen aus einer vorherigen Antwort nicht auf die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für Antworten generiert werden können, einschließlich sichtbarer Ausgabetoken und Konversationsstatus. |
No | |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| reasoning | Reasoning | Konfigurationsoptionen für Begründungsmodelle. |
No | |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
No | |
| └─ Format | TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
No | |
| tool_choice | ToolChoiceOptions oder ToolChoiceTypes oder ToolChoiceFunction | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools |
No | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No |
ResponseRefusalDeltaEvent
Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| delta | string | Der Verweigerungstext, der hinzugefügt wird. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.refusal.delta.Möglicher Wert: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dass der Ablehnungstext abgeschlossen wird |
Yes | |
| item_id | string | Die ID des Ausgabeelements, bei dem der Ablehnungstext finalisiert wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen wird |
Yes | |
| refusal | string | Der endgültige Ablehnungstext. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.refusal.done.Möglicher Wert: response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Der Index der hinzugefügten Anmerkung. |
Yes | |
| arguments | string | Die Funktionsaufrufargumente. | Yes | |
| code | string | Der Fehlercode. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Ein Toolaufruf zum Ausführen von Code. |
Yes | |
| content_index | integer | Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird |
Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde |
Yes | |
| item | OutputItem | Das Ausgabeelement, das als erledigt markiert wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dessen Textinhalt abgeschlossen ist. |
Yes | |
| message | string | Die Fehlermeldung. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird |
Yes | |
| param | string | Der Fehlerparameter. |
Yes | |
| part | OutputContent | Der fertige Inhaltsteil. |
Yes | |
| refusal | string | Der endgültige Ablehnungstext. |
Yes | |
| response | response | Die Antwort, die unvollständig war. |
Yes | |
| text | string | Der textinhalt, der abgeschlossen ist. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.output_text.done.Möglicher Wert: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Wird ausgegeben, wenn eine Textanmerkung hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Der Index der hinzugefügten Anmerkung. |
Yes | |
| content_index | integer | Der Index des Inhaltsteils, dem die Textanmerkung hinzugefügt wurde. |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem die Textanmerkung hinzugefügt wurde. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.output_text.annotation.added.Möglicher Wert: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde |
Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde |
Yes | |
| type | enum | Typ des Ereignisses Immer response.output_text.delta.Möglicher Wert: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Wird gesendet, wenn der Textinhalt finalisiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird |
Yes | |
| item_id | string | Die ID des Ausgabeelements, dessen Textinhalt abgeschlossen ist. |
Yes | |
| output_index | integer | Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird |
Yes | |
| text | string | Der textinhalt, der abgeschlossen ist. |
Yes | |
| type | enum | Typ des Ereignisses Immer response.output_text.done.Möglicher Wert: response.output_text.done |
Yes |
ResponseUsage
Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | Yes | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | Yes | |
| output_tokens_details | object | Eine detaillierte Aufschlüsselung der Ausgabetoken. | Yes | |
| └– reasoning_tokens | integer | Die Anzahl der Begründungstoken | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | Yes |
Screenshot
Screenshotaktion
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf screenshot festgelegt.Möglicher Wert: screenshot |
Yes |
Scroll
Eine Scrollaktion
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Der horizontale Scrollabstand |
Yes | |
| scroll_y | integer | Der vertikale Scrollabstand |
Yes | |
| type | enum | Gibt den Ereignistyp an. Beim Scrollen wird diese Eigenschaft immer auf scroll gesetzt.Möglicher Wert: scroll |
Yes | |
| x | integer | Die X-Koordinate, an der das Scrollen erfolgt ist |
Yes | |
| y | integer | Die y-Koordinate, bei der das Scrollen stattfindet. |
Yes |
StopConfiguration
Bis zu 4 Sequenzen, bei denen die API die Generierung weiterer Token beendet. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Mögliche Werte für diese Komponente:
TextResponseFormatConfiguration
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren { "type": "json_schema" } aktiviert strukturierte Ausgaben, wodurch sichergestellt wird, dass das Modell ihrem bereitgestellten JSON-Schema entspricht.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Mögliche Werte für diese Komponente:
TextResponseFormatJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu strukturierten Ausgaben.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung des Zwecks des Antwortformats, die vom Modell verwendet wird, um zu bestimmen, wie in dem Format geantwortet werden soll. |
No | |
| name | string | Der Name des Antwortformats. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. | Yes | |
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell immer dem genauen Schema, das im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. |
No | False |
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Möglicher Wert: json_schema |
Yes |
Tool
Mögliche Werte für diese Komponente:
ToolChoiceFunction
Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der aufzurufenden Funktion. | Yes | |
| type | enum | Bei Funktionsaufrufen ist der Typ immer function.Möglicher Wert: function |
Yes |
ToolChoiceOptions
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
| Property | Value |
|---|---|
| Description | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des gehosteten Tools, den das Modell verwenden soll. Zulässige Werte sind: - file_search- computer_use_previewMögliche Werte: file_search, computer_use_preview |
Yes |
Type
Eine Aktion zum Eingeben von Text.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der einzugebende Text. |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Typaktion wird diese Eigenschaft immer auf type gesetzt.Möglicher Wert: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. |
Yes |
UrlCitation
Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Der Index des letzten Zeichens des URL-Zitats in der Nachricht. |
Yes | |
| start_index | integer | Der Index des ersten Zeichens des URL-Zitats in der Nachricht. |
Yes | |
| title | string | Der Titel der Webressource. |
Yes | |
| type | enum | Der Typ des URL-Zitats. Immer url_citation.Möglicher Wert: url_citation |
Yes | |
| url | string | Die URL der Webressource. |
Yes |
VectorStoreFileAttributes
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Für diese Komponente sind keine Eigenschaften definiert.
VectorStoreFileContentResponse
Stellt den analysierten Inhalt einer Vektorspeicherdatei dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Analysierter Inhalt der Datei. | Yes | |
| has_more | boolean | Gibt an, ob mehr Inhaltsseiten abgerufen werden sollen. | Yes | |
| next_page | string | Das Token für die nächste Seite, falls vorhanden. | Yes | |
| object | enum | Der Objekttyp, der immer vector_store.file_content.page ist.Möglicher Wert: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter oder CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | No | |
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. | No | 10 |
| query | Zeichenfolge oder Array | Eine Abfragezeichenfolge für eine Suche | Yes | |
| ranking_options | object | Sortieroptionen für die Suche. | No | |
| └– Ranker | enum | Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ Punktschwelle | number | No | 0 | |
| rewrite_query | boolean | Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der von der Suche zurückgegebene Textinhalt. | Yes | |
| type | enum | Der Inhaltstyp. Möglicher Wert: text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. |
Yes | |
| content | array | Inhaltsblöcke aus der Datei. | Yes | |
| file_id | string | Die ID der Vektorspeicherdatei. | Yes | |
| filename | string | Der Name der Vektorspeicherdatei. | Yes | |
| score | number | Der Ähnlichkeitswert für das Ergebnis. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Die Liste der Suchergebniselemente. | Yes | |
| has_more | boolean | Gibt an, ob weitere Ergebnisse abgerufen werden sollen. | Yes | |
| next_page | string | Das Token für die nächste Seite, falls vorhanden. | Yes | |
| object | enum | Der Objekttyp, der immer vector_store.search_results.page ist.Möglicher Wert: vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Für diese Komponente sind keine Eigenschaften definiert.
Wait
Eine Warteaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf wait gesetzt.Möglicher Wert: wait |
Yes |
ReasoningEffort
Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
| Property | Value |
|---|---|
| Description | Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Tritt auf, wenn ein Fehler auftritt. Dies kann aufgrund eines internen Serverfehlers oder eines Timeouts eintreten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
Ereignisenumeration: ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Tritt auf, wenn ein Datenstrom endet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
Ereignisenumeration: DoneEventEnum
| Value | Description |
|---|---|
| done |
Datenenumeration: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Nächste Schritte
Erfahren Sie mehr über Modelle und die Feinabstimmung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.