Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Derzeit werden nur eine Teilmenge von Vorgängen mit der v1-API unterstützt. Weitere Informationen finden Sie in der Anleitung zum API-Versionslebenszyklus.
Chatvervollständigung erstellen
POST {endpoint}/openai/v1/chat/completions
Erstellt eine Chatvervollständigung.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite Version der Microsoft Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| audio | Objekt | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mitmodalities: ["audio"]. |
Nein | |
| └─ format | enum | Gibt das Audioformat der Ausgabe an. Muss eins der folgende Formate aufweisen: wav, mp3, flac,opus oder pcm16.Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16 |
Nein | |
| └– Stimme | Objekt | Nein | ||
| data_sources | array | Die Datenquellen, die für das Feature „On Your Data“ verwendet werden sollen, exklusiv für Azure OpenAI. | Nein | |
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Modellzahlen verringert werden Wahrscheinlichkeit, dieselbe Zeile wörtlich zu wiederholen. |
Nein | 0 |
| function_call | enum | Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.Mögliche Werte: none, auto |
Nein | |
| Funktionen | array | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
Nein | |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem verwandten Bias-Wert von -100 bis 100 zuordnet. Mathematisch der Trend wird vor der Stichprobenentnahme zu den logits hinzugefügt, die vom Modell generiert wurden. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl erhöhen oder verringern; Werte wie -100 oder 100 sollte dies zu einem Verbot oder einer exklusiven Auswahl des betreffenden Tokens führen. |
Nein | Nichts |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn WAHR gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das zurückgegeben wird in der content von message. |
Nein | Falsch |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
Nein | |
| maximale_Anzahl_von_Tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Dieser Wert kann zur Kostenkontrolle für über die API generierten Text verwendet werden. Dieser Wert ist jetzt veraltet zugunsten von max_completion_tokens, und istnicht mit Modellen der o1-Serie kompatibel. |
Nein | |
| messages | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig von Modell, das Sie verwenden, werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, wie Text, Bilder und Audio. |
Ja | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| modalities | Objekt | Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modellsowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden: ["text", "audio"] |
Nein | |
| Modell | Schnur | Der Modellimplementierungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. | Ja | |
| n | integer | Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. |
Nein | 1 |
| Parallele Werkzeugaufrufe | Objekt | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| Vorhersage | Objekt | Basisdarstellung der vorhergesagten Ausgabe eines Modells. | Nein | |
| └– Typ | OpenAI.ChatOutputPredictionType | Nein | ||
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit des Modells erhöht wird, über neue Themen zu sprechen. |
Nein | 0 |
| Denkanstrengung | Objekt |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| Antwortformat | Objekt | Nein | ||
| └– Typ | enum | Mögliche Werte: text, , json_objectjson_schema |
Nein | |
| Seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen. |
Nein | |
| stop | Objekt | Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Das Beendigungssequenz ist nicht im zurückgegebenen Text enthalten. |
Nein | |
| store | boolean | Ob die Ausgabe dieser Chat-Anfrage dieser Chatabschlussanforderung für die Verwendung in Modelldestillation oder Bewertungsprodukten gespeichert werden soll oder nicht. |
Nein | Falsch |
| Datenstrom | boolean | Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von server-sent-Ereignissen generiert werden. |
Nein | Falsch |
| stream_options | Objekt | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
Nein | |
| └– include_usage | boolean | Wenn dies festgelegt ist, wird ein zusätzlicher Block vor dem data: [DONE]-Meldung. Das Feld usage in diesem Abschnitt zeigt die Tokenverbrauchsstatistikenfür die gesamte Anforderung an, und das Feld choices ist immer ein leeresArray. Alle anderen Blöcke werden auch ein Feld usage enthalten, aber mit einem NULL-Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den letzten Verbrauchsblock, der den gesamten Tokenverbrauch für die Anforderung enthält. |
Nein | |
| Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | 1 |
| Toolauswahl | OpenAI.ChatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
Nein | |
| Werkzeuge | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. | Nein | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | 1 |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der ihnen helfen kann, Missbrauch zu überwachen und erkennen. |
Nein | |
| user_security_context | AzureUserSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, welche die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureCreateChatCompletionResponse | |
| text/event-stream | AzureCreateChatCompletionStreamResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Beispiele
Beispiel
Erstellt eine Vervollständigung für den angegebenen Prompt sowie für die angegebenen Parameter und das gewählte Modell.
POST {endpoint}/openai/v1/chat/completions
{
"model": "gpt-4o-mini",
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Erstellen der Einbettung
POST {endpoint}/openai/v1/embeddings
Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
Nein | |
| encoding_format | enum | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.Mögliche Werte: float, base64 |
Nein | |
| Eingabe | Zeichenfolge oder Array | Ja | ||
| Modell | Schnur | Das Modell, das für die Einbettungsanforderung verwendet werden soll. | Ja | |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.CreateEmbeddingResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Beispiele
Beispiel
Zurückgeben der Einbettungen für eine bestimmte Eingabeaufforderung
POST {endpoint}/openai/v1/embeddings
{
"model": "text-embedding-ada-002",
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196,
-0.020365695,
-0.009631885,
-0.007647093,
0.0033837722,
-0.026764825,
-0.010501476,
0.020219658,
0.024640633,
-0.0066912062,
-0.036456455,
-0.0040923897,
-0.013966565,
0.017816665,
0.005366905,
0.022835068,
0.0103488,
-0.0010811808,
-0.028942121,
0.0074280356,
-0.017033368,
0.0074877786,
0.021640211,
0.002499245,
0.013316032,
0.0021524043,
0.010129742,
0.0054731146,
0.03143805,
0.014856071,
0.0023366117,
-0.0008243692,
0.022781964,
0.003038591,
-0.017617522,
0.0013309394,
0.0022154662,
0.00097414135,
0.012041516,
-0.027906578,
-0.023817508,
0.013302756,
-0.003003741,
-0.006890349,
0.0016744611
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Bewertungen auflisten
GET {endpoint}/openai/v1/evals
Listet Auswertungen für ein Projekt auf.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| after | Anfrage | Nein | Schnur | Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl der Bewertungen, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge von Bewertungen nach Zeitstempel. Verwenden Sie asc für aufsteigende Reihenfolge oderdesc für absteigende Reihenfolge. |
| order_by | Anfrage | Nein | Schnur Mögliche Werte: created_at, updated_at |
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Verwendungcreated_at für die Erstellungszeit oder updated_at für die letzte Aktualisierungkann. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Bewertung erstellen
POST {endpoint}/openai/v1/evals
Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.
Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datenquellenkonfiguration | Objekt | Ja | ||
| └– Typ | OpenAI.EvalDataSourceConfigType | Nein | ||
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Der Name der Auswertung. | Nein | |
| statusCode | enum | Möglicher Wert: 201 |
Ja | |
| Testkriterien | array | Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Eval |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Bewertung abrufen
GET {endpoint}/openai/v1/evals/{eval_id}
Rufen Sie eine Bewertung anhand ihrer ID ab. Ruft eine Bewertung anhand ihrer ID ab.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Eval |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Bewertung aktualisieren
POST {endpoint}/openai/v1/evals/{eval_id}
Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Bewertung.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | OpenAI.MetadataPropertyForRequest | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Eval |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Löschen einer Bewertung
DELETE {endpoint}/openai/v1/evals/{eval_id}
Löschen sie eine angegebene Bewertung.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen von Bewertungsausführungen
GET {endpoint}/openai/v1/evals/{eval_id}/runs
Dient zum Abrufen einer Liste von Läufen für eine angegebene Bewertung.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur | |
| after | Anfrage | Nein | Schnur | |
| limit | Anfrage | Nein | integer | |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
|
| status | Anfrage | Nein | Schnur Mögliche Werte: queued, , in_progresscompleted, , canceledfailed |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRunList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Erstellen einer Bewertungsausführung
POST {endpoint}/openai/v1/evals/{eval_id}/runs
Erstellen Sie eine neue Bewertungsausführung, die den Bewertungsprozess beginnt.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datenquelle | Objekt | Ja | ||
| └– Typ | OpenAI.EvalRunDataSourceType | Nein | ||
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Name der Ausführung | Nein |
Antworten
Statuscode: 201
Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRun |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen einer Bewertungsausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Rufen Sie eine bestimmten Bewertung ab, die nach ihrer ID ausgeführt wird.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRun |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abbrechen einer Bewertungsausführung
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Brechen Sie eine bestimmte Bewertung ab, die nach ihrer ID ausgeführt wird.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRun |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Bewertungsausführung löschen
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Löschen Sie eine bestimmte Auswertung, die nach ihrer ID ausgeführt wird.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen von Ausgabeelementen der Bewertungsausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items
Rufen Sie eine Liste der Ausgabeelemente für eine angegebene Bewertungsausführung ab.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur | |
| after | Anfrage | Nein | Schnur | |
| limit | Anfrage | Nein | integer | |
| status | Anfrage | Nein | Schnur Mögliche Werte: fail, pass |
|
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRunOutputItemList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen des Ausgabeelements der Bewertungsausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}
Rufen Sie ein bestimmtes Ausgabeelement aus einer Bewertung ab, die nach ihrer ID ausgeführt wird.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf AOAI-Bewertungen, eine Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-evals“ auf „preview“ festgelegt sein. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur | |
| output_item_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRunOutputItem |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Datei erstellen
POST {endpoint}/openai/v1/files
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| expires_after | Objekt | Ja | ||
| └– Anker | AzureFileExpiryAnchor | Nein | ||
| └─ Sekunden | integer | Nein | ||
| file | Schnur | Ja | ||
| purpose | enum | Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwendenMögliche Werte: assistants, , batch, fine-tuneevals |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureOpenAIFile |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Beispiele
Beispiel
POST {endpoint}/openai/v1/files
Auflisten von Dateien
GET {endpoint}/openai/v1/files
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| purpose | Anfrage | Nein | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureListFilesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Datei abrufen
GET {endpoint}/openai/v1/files/{file_id}
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureOpenAIFile |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Datei löschen
DELETE {endpoint}/openai/v1/files/{file_id}
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteFileResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Herunterladen der Datei
GET {endpoint}/openai/v1/files/{file_id}/content
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/octet-stream | Schnur |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Bewerter ausführen
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run
Führen Sie einen Bewerter aus.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | Objekt | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Ja | |
| └─ calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Nein | |
| └- Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Nein | |
| └─ graders | Objekt | Nein | ||
| └– image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| └– Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Nein | |
| └─ Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Nein | |
| └– Name | Schnur | Name des Bewerters (Graders) | Nein | |
| └─ Vorgang | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Nein | |
| └– Bereich | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| └– Referenz | Schnur | Der Text, für die Bewertung. | Nein | |
| └– Stichprobenparameter | Die Samplingparameter für das Modell. | Nein | ||
| └- Quelle | Schnur | Der Quellcode des Python-Skripts. | Nein | |
| └– Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Nein | |
| item | Das Datasetelement, das dem Bewerter bereitgestellt wird. Dies wird zum Auffüllen des Namespace item verwendet. Weitere Details finden Sie im Leitfaden. |
Nein | ||
| model_sample | Schnur | Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel einegültige JSON-Zeichenfolge ist. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunGraderResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Überprüfen des Bewerters
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate
Überprüfen Sie einen Bewerter.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | Objekt | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Ja | |
| └─ calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Nein | |
| └- Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Nein | |
| └─ graders | Objekt | Nein | ||
| └– image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| └– Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Nein | |
| └─ Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Nein | |
| └– Name | Schnur | Name des Bewerters (Graders) | Nein | |
| └─ Vorgang | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Nein | |
| └– Bereich | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| └– Referenz | Schnur | Der Text, für die Bewertung. | Nein | |
| └– Stichprobenparameter | Die Samplingparameter für das Modell. | Nein | ||
| └- Quelle | Schnur | Der Quellcode des Python-Skripts. | Nein | |
| └– Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ValidateGraderResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Erstellen eines Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs
Erstellt einen Feinabstimmungsauftrag, der den Prozess der Erstellung eines neuen Modells aus einem bestimmten Datensatz startet.
Die Antwort enthält Details des in die Warteschlange gestellten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.
Weitere Informationen zur Feinabstimmung
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Hyperparameter | Objekt | Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden. |
Nein | |
| └- batch_size | enum | Möglicher Wert: auto |
Nein | |
| └– Lernraten-Multiplikator | enum | Möglicher Wert: auto |
Nein | |
| └– n_epochs | enum | Möglicher Wert: auto |
Nein | |
| Integrationen | array | Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Methode | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | Nein | |
| Modell | string (siehe gültige Modelle unten) | Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden unterstützten Modelle verwenden. |
Ja | |
| Seed | integer | Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden. Wenn Sie keinen Seed angeben, wird einer für Sie generiert. |
Nein | |
| suffix | Schnur | Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird. Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen. |
Nein | Nichts |
| Trainingsdatei | Schnur | Die ID einer hochgeladenen Datei, die Trainingsdaten enthält. Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.Je nachdem, ob das Modell den Chat verwendet, oder ob die Feinabstimmungsmethode das Format Vorlieben verwendet, sollte sich der Inhalt der Datei unterscheiden. Weitere Details finden Sie in der Feinabstimmungsanleitung. |
Ja | |
| Validierungsdatei | Schnur | Die ID einer hochgeladenen Datei, die Validierungsdaten enthält. Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs- Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden. Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein. Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.Weitere Details finden Sie in der Feinabstimmungsanleitung. |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten von paginierten Feinabstimmungsaufträgen
GET {endpoint}/openai/v1/fine_tuning/jobs
Auflisten der Feinabstimmungsaufträge Ihrer Organisation
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| after | Anfrage | Nein | Schnur | Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsaufforderung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Feinabstimmungsaufträge. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen eines Feinabstimmungsauftrags
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}
Rufen Sie Informationen zu einem Feinabstimmungsauftrag ab.
Weitere Informationen zur Feinabstimmung
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abbrechen des Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel
Brechen Sie einen Feinabstimmungsauftrag sofort ab.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des abzubrechenden Feinabstimmungsauftrags. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten von Prüfpunkten des Feinabstimmungsauftrags
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints
Listen Sie die Prüfpunkte für einen Feinabstimmungsauftrag auf.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen. |
| after | Anfrage | Nein | Schnur | Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Prüfpunkte. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Feinabstimmung – Prüfpunkt kopieren
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy
Erstellt eine Kopie eines Feinabstimmungsprüfpunkts für das angegebene Zielkonto und die angegebene Region.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-copy-ft-checkpoints | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein. |
| accept (Akzeptieren) | Header | Ja | Schnur Möglicher Wert: application/json |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | |
| fine_tuning_checkpoint_name | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| destinationResourceId | Schnur | Die ID der zu kopierenden Zielressource. | Ja | |
| region | Schnur | Die Region, in die das Modell kopiert werden soll. | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | CopyModelResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Feinabstimmung – Prüfpunkt abrufen
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_name}/copy
Ruft den Status der Kopie eines Feinabstimmungsprüfpunkts ab.
Hinweis
Dieser Azure OpenAI-Vorgang befindet sich in der Vorschau und kann geändert werden.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-copy-ft-checkpoints | Header | Ja | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein. |
| accept (Akzeptieren) | Header | Ja | Schnur Möglicher Wert: application/json |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | |
| fine_tuning_checkpoint_name | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | CopyModelResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten von Ereignisse der Feinabstimmung
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events
Rufen Sie Statusupdates für einen Feinabstimmungsauftrag ab.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen. |
| after | Anfrage | Nein | Schnur | Bezeichner für das letzte Ereignis aus der vorherigen Anforderung zur Paginierung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Ereignisse. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFineTuningJobEventsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Feinabstimmungsauftrag anhalten
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause
Halten Sie einen Feinabstimmungsauftrag an.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des anzuhaltenden Feinabstimmungsauftrags. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Fortsetzen des Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume
Setzen Sie einen angehaltenen Feinabstimmungsauftrag fort.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten von Modellen
GET {endpoint}/openai/v1/models
Listet die derzeit verfügbaren Modelle auf und stellt grundlegende Informationen zu jedem Modell bereit, z. B. Besitzer und Verfügbarkeit.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListModelsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Modell abrufen
GET {endpoint}/openai/v1/models/{model}
Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und Berechtigungen.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| Modell | Pfad | Ja | Schnur | Die ID des Modells, das für diese Anforderung verwendet werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Model |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Antwort erstellen
POST {endpoint}/openai/v1/responses
Erstellt eine Modellantwort.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| include | array | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführungin den Aufrufelementen des Code-Interpreter-Tools. - computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs.- file_search_call.results: Fügen Sie die Suchergebnisse eindes Aufrufs des Dateisuchtools. - message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B. wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt istfür das Null-Datenaufbewahrungsprogramm registriert). |
Nein | |
| Eingabe | Zeichenfolge oder Array | Nein | ||
| instructions | Schnur | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Modell | Schnur | Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. | Ja | |
| Parallele Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| previous_response_id | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| prompt | Objekt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └─ id | Schnur | Der eindeutige Bezeichner der zu verwendenden Promptvorlage. | Nein | |
| └- Variablen | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
Nein | |
| └─ version | Schnur | Optionale Version der Promptvorlage. | Nein | |
| Begründung | Objekt |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └– Aufwand | OpenAI.ReasoningEffort |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| └– generate_summary | enum |
Veraltet. , verwenden Sie stattdessen summary.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| └– Zusammenfassung | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| store | boolean | Gibt an, ob die generierte Modellantwort gespeichert werden soll zur späteren Abfrage über . |
Nein | Richtig |
| Datenstrom | boolean | Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von server-sent-Ereignissen generiert werden. Siehe den Abschnitt „Streaming“ weiter unten finden Sie weitere Informationen. |
Nein | Falsch |
| Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | 1 |
| Text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| Toolauswahl | Objekt | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines odervon Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. |
Nein | |
| └– Typ | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | Nein | |
| Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Funktionen des Modells erweitern, z. B. die Dateisuche. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, die dem Modell das Aufrufen Ihres eigenen Codes ermöglichen. |
Nein | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | 1 |
| Kürzung | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureResponse | |
| text/event-stream | OpenAI.ResponseStreamEvent |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Beispiele
Beispiel
Erstellen einer Modellantwort
POST {endpoint}/openai/v1/responses
Antwort abrufen
GET {endpoint}/openai/v1/responses/{response_id}
Ruft eine Modellantwort mit der angegebenen ID ab.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| response_id | Pfad | Ja | Schnur | |
| include_obfuscation | Anfrage | Nein | boolean | Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt einem Feld obfuscation bei Streaming-Delta-Ereignissen zufällige Zeichen hinzu, um Nutzlastgrößen als Risikominderung für bestimmte Seitenkanalangriffe zu normalisieren. Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch dem Datenstrom einen geringen Mehraufwand hinzu. Sie können include_obfuscation auf FALSCH festlegen, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen Ihrer Anwendung und der OpenAI-API vertrauen. |
| include[] | Anfrage | Nein | array |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Antwort löschen
DELETE {endpoint}/openai/v1/responses/{response_id}
Löscht eine Antwort nach ID.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| response_id | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Listeneingabeelemente
GET {endpoint}/openai/v1/responses/{response_id}/input_items
Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| response_id | Pfad | Ja | Schnur | |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ResponseItemList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten der Vektorspeicher
GET {endpoint}/openai/v1/vector_stores
Gibt eine Liste mit Vektorspeichern zurück.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListVectorStoresResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Createvectorstore
POST {endpoint}/openai/v1/vector_stores
Erstellt einen Vektorspeicher.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| chunking_strategy | Objekt | Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400. |
Nein | |
| └– statisch | OpenAI.StaticChunkingStrategy | Nein | ||
| └– Typ | enum | Immer static.Möglicher Wert: static |
Nein | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| Datei-IDs | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Der Name des Vektorspeichers. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Beispiele
Beispieldatei nicht gefunden: ./examples/vector_stores.json
Abrufen des Vektorspeichers
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}
Ruft einen Vektorspeicher ab.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des abzurufenden Vektorspeichers. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Ändern des Vektorspeichers
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}
Ändert einen Vektorspeicher.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des zu ändernden Vektorspeichers. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| expires_after | Objekt | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| └– Anker | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Möglicher Wert: last_active_at |
Nein | |
| └– Tage | integer | Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Der Name des Vektorspeichers. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Löschen des Vektorspeichers
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}
Löschen Sie einen Vektorspeicher.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des zu löschenden Vektorspeichers. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteVectorStoreResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Erstellen eines Vektorspeicher-Dateibatches
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches
Erstellen Sie einen Vektorspeicher-Dateibatch.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Nein | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
Nein | |
| Datei-IDs | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileBatchObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen des Vektorspeicher-Dateibatches
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}
Ruft einen Vektorspeicher-Dateibatch ab.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | Pfad | Ja | Schnur | Die ID des abgerufenen Dateibatches |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileBatchObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abbrechen des Vektorspeicher-Dateibatches
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel
Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | Pfad | Ja | Schnur | Die ID des zu abbrechenden Dateibatches. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileBatchObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten von Dateien im Vektorspeicher-Batch
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files
Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | Pfad | Ja | Schnur | Die ID des Dateibatches, zu dem die Dateien gehören. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | Anfrage | Nein | Filtern nach Dateistatus. Einer der folgenden Werte: in_progress, completed, failed, cancelled. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListVectorStoreFilesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Auflisten der Vektorspeicherdateien
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Gibt eine Liste mit Vektorspeicherdateien zurück.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem Zeitstempel created_at der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgende Aufrufe before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | Anfrage | Nein | Filtern nach Dateistatus. Einer der folgenden Werte: in_progress, completed, failed, cancelled. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListVectorStoreFilesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Erstellen einer Vektorspeicherdatei
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, für den eine Datei erstellt werden soll. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Nein | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
Nein | |
| Datei-ID | Schnur | Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Abrufen einer Vektorspeicherdatei
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Ruft eine Vektorspeicherdatei ab.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der abgerufenen Datei. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Aktualisieren von Vektorspeicher-Dateiattributen
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | |
| Datei-ID | Pfad | Ja | Schnur |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Anforderungstext
Content-Type: application/json
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Löschen einer Vektorspeicherdatei
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Verwenden Sie zum Löschen der Datei den dafür vorgesehenen Endpunkt.
Parameter
| Name | Geben Sie in | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|---|
| Endpunkt | Pfad | Ja | Schnur url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie „aoairesource“ durch den Namen Ihrer Azure OpenAI-Ressource). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der zu löschenden Datei. |
Anfrage-Kopf
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Es wird empfohlen, die Authentifizierung mit tokenbasierter Methode zu verwenden, da diese sicherer ist.
| Name | Erforderlich | Typ | BESCHREIBUNG |
|---|---|---|---|
| Autorisierung | Richtig | Schnur |
Beispiel:Authorization: Bearer {Azure_OpenAI_Auth_Token}So generieren Sie ein Authentifizierungstoken mit Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comTyp: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeBereich: https://cognitiveservices.azure.com/.default |
| API-Schlüssel | Richtig | Schnur | Geben Sie hier den Azure OpenAI-API-Schlüssel an. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteVectorStoreFileResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | AzureErrorResponse |
Komponenten
AzureAIFoundryModelsApiVersion
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | v1preview |
AzureChatCompletionResponseMessage
Die Komponente des erweiterten Antwortmodells für Antwortnachrichten der Chatvervollständigung in Azure OpenAI Service. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature „On Your Data“ für Absicht, Zitate und andere Informationen im Zusammenhang mit der durchgeführten, um Abfragen erweiterten Generierung (Retrieval Augmented Generation) verwendet werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Anmerkungen | array | Anmerkungen für die Nachricht, falls zutreffend, wenn das Websuchtool verwendet wird. | Nein | |
| audio | Objekt | Wenn die Audioausgabemodalität angefordert wird, enthält dieses Objekt Daten über die Audioausgabe vom Modell. . |
Nein | |
| └– Daten | Schnur | Vom Modell generierte Base64-codierte Audiobytes in dem Format, das in der Anforderung angegeben ist. |
Nein | |
| └– abläuft_am | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem diese Audioausgabe auf dem Server nicht mehr zur Verwendung mit mehrteiligen Unterhaltungen aufgerufen werden kann. |
Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Audioausgabe. | Nein | |
| └– Transkript | Schnur | Transkript der vom Modell generierten Audiodaten. | Nein | |
| Inhalt | Schnur | Der Inhalt der Nachricht. | Ja | |
| context | Objekt | Eine zusätzliche Eigenschaft, die Chatabschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI-Dienst erstellt werden, wenn Erweiterungsverhalten verwendet wird. Dazu gehören Absichts- und Zitatinformationen aus dem Feature „On Your Data“. |
Nein | |
| └– alle_abgerufenen_Dokumente | Objekt | Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. | Nein | |
| └– chunk_id | Schnur | Die Segment-ID für das Zitat. | Nein | |
| └– Inhalt | Schnur | Der Inhalt des Zitats. | Nein | |
| └– Datenquellenindex | integer | Der Index der Datenquelle, die für den Abruf verwendet wird. | Nein | |
| └– Dateipfad | Schnur | Der Dateipfad für das Zitat. | Nein | |
| └– filter_begründung | enum | Falls zutreffend, ein Hinweis, warum das Dokument gefiltert wurde. Mögliche Werte: score, rerank |
Nein | |
| └─ original_search_score | number | Die ursprüngliche Suchergebnisscore für den Abruf. | Nein | |
| └– rerank_score | number | Der Neubewertungsscore für den Abruf. | Nein | |
| └– Suchanfragen | array | Die zum Abrufen von Dokumenten ausgeführten Suchabfragen. | Nein | |
| └– Titel | Schnur | Der Titel für das Zitat. | Nein | |
| └– URL | Schnur | Die URL des Zitats. | Nein | |
| └- Zitate | array | Die Zitate, die vom Datenabruf erzeugt werden. | Nein | |
| └– Absicht | Schnur | Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten | Nein | |
| function_call | Objekt | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein | |
| └- Argumente | Schnur | Nein | ||
| └– Name | Schnur | Nein | ||
| reasoning_content | Schnur | Eine Azure-spezifische Erweiterungseigenschaft, die generierte Begründungsinhalte aus unterstützten Modellen enthält. | Nein | |
| Ablehnung | Schnur | Eine vom Modell generierte Ablehnungsmeldung. | Ja | |
| Rolle (role) | enum | Die Rolle des Autors dieser Nachricht Möglicher Wert: assistant |
Ja | |
| tool_calls | ChatCompletionMessageToolCallsItem | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | Nein |
AzureChatCompletionStreamResponseDelta
Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht in Azure OpenAI Service. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature „On Your Data“ für Absicht, Zitate und andere Informationen im Zusammenhang mit der durchgeführten, um Abfragen erweiterten Generierung (Retrieval Augmented Generation) verwendet werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| audio | Objekt | Nein | ||
| └– Daten | Schnur | Nein | ||
| └– abläuft_am | integer | Nein | ||
| └─ id | Schnur | Nein | ||
| └– Transkript | Schnur | Nein | ||
| Inhalt | Schnur | Die Inhalte der Blocknachricht. | Nein | |
| context | Objekt | Eine zusätzliche Eigenschaft, die Chatabschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI-Dienst erstellt werden, wenn Erweiterungsverhalten verwendet wird. Dazu gehören Absichts- und Zitatinformationen aus dem Feature „On Your Data“. |
Nein | |
| └– alle_abgerufenen_Dokumente | Objekt | Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. | Nein | |
| └– chunk_id | Schnur | Die Segment-ID für das Zitat. | Nein | |
| └– Inhalt | Schnur | Der Inhalt des Zitats. | Nein | |
| └– Datenquellenindex | integer | Der Index der Datenquelle, die für den Abruf verwendet wird. | Nein | |
| └– Dateipfad | Schnur | Der Dateipfad für das Zitat. | Nein | |
| └– filter_begründung | enum | Falls zutreffend, ein Hinweis, warum das Dokument gefiltert wurde. Mögliche Werte: score, rerank |
Nein | |
| └─ original_search_score | number | Die ursprüngliche Suchergebnisscore für den Abruf. | Nein | |
| └– rerank_score | number | Der Neubewertungsscore für den Abruf. | Nein | |
| └– Suchanfragen | array | Die zum Abrufen von Dokumenten ausgeführten Suchabfragen. | Nein | |
| └– Titel | Schnur | Der Titel für das Zitat. | Nein | |
| └– URL | Schnur | Die URL des Zitats. | Nein | |
| └- Zitate | array | Die Zitate, die vom Datenabruf erzeugt werden. | Nein | |
| └– Absicht | Schnur | Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten | Nein | |
| function_call | Objekt | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein | |
| └- Argumente | Schnur | Nein | ||
| └– Name | Schnur | Nein | ||
| reasoning_content | Schnur | Eine Azure-spezifische Erweiterungseigenschaft, die generierte Begründungsinhalte aus unterstützten Modellen enthält. | Nein | |
| Ablehnung | Schnur | Eine vom Modell generierte Ablehnungsmeldung. | Nein | |
| Rolle (role) | Objekt | Die Rolle des Autors einer Nachricht | Nein | |
| tool_calls | array | Nein |
AzureChatDataSource
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chatdatenquelle. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Diskriminator für AzureChatDataSource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
azure_search |
AzureSearchChatDataSource |
azure_cosmos_db |
AzureCosmosDBChatDataSource |
elasticsearch |
ElasticsearchChatDataSource |
pinecone |
PineconeChatDataSource |
mongo_db |
MongoDBChatDataSource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Objekt | Ja |
AzureChatDataSourceAccessTokenAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| access_token | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: access_token |
Ja |
AzureChatDataSourceApiKeyAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Schlüssel | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: api_key |
Ja |
AzureChatDataSourceAuthenticationOptions
Diskriminator für AzureChatDataSourceAuthenticationOptions
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
system_assigned_managed_identity |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions |
access_token |
AzureChatDataSourceAccessTokenAuthenticationOptions |
connection_string |
AzureChatDataSourceConnectionStringAuthenticationOptions |
key_and_key_id |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions |
username_and_password |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | AzureChatDataSourceAuthenticationOptionsType | Ja |
AzureChatDataSourceAuthenticationOptionsType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | api_keyusername_and_passwordconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identity |
AzureChatDataSourceConnectionStringAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| connection_string | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: connection_string |
Ja |
AzureChatDataSourceDeploymentNameVectorizationSource
Stellt eine Vektorisierungsquelle dar, die interne Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt. Im Gegensatz zur Endpunkt-basierten Vektorisierungsquelle muss eine Bereitstellungsname-basierte Vektorisierungsquelle Teil derselben Azure OpenAI-Ressource sein, kann aber sogar in privaten Netzwerken verwendet werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| deployment_name | Schnur | Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Instanz vorhanden sein Ressource als Modellimplementierung, die für Chatabschlüsse verwendet wird. |
Ja | |
| dimensions | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Nur in „text-embedding-3” und späteren Modellen unterstützt. |
Nein | |
| Typ | enum | Der Typbezeichner, immer „deployment_name“ für diesen Vektorisierungsquelltyp. Möglicher Wert: deployment_name |
Ja |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| encoded_api_key | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: encoded_api_key |
Ja |
AzureChatDataSourceEndpointVectorizationSource
Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Authentifizierung | Objekt | Ja | ||
| └─ Zugriffstoken | Schnur | Nein | ||
| └– Schlüssel | Schnur | Nein | ||
| └– Typ | enum | Möglicher Wert: access_token |
Nein | |
| dimensions | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Nur in „text-embedding-3” und späteren Modellen unterstützt. |
Nein | |
| Endpunkt | Schnur | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im folgenden Format sein: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter „api-version“ ist nicht zulässig. |
Ja | |
| Typ | enum | Der Typbezeichner, immer „endpoint“ für diesen Vektorisierungsquelltyp. Möglicher Wert: endpoint |
Ja |
AzureChatDataSourceIntegratedVectorizationSource
Stellt eine integrierte Vektorisierungsquelle dar, wie in der unterstützenden Suchressource definiert.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Typbezeichner, immer „integriert” für diesen Vektorisierungsquelltyp. Möglicher Wert: integrated |
Ja |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Schlüssel | Schnur | Ja | ||
| key_id | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: key_and_key_id |
Ja |
AzureChatDataSourceModelIdVectorizationSource
Stellt eine Vektorisierungsquelle dar, die Dienstaufrufe basierend auf einer Suchdienstmodell-ID vornimmt. Dieser Quelltyp wird derzeit nur von Elasticsearch unterstützt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| model_id | Schnur | Die Einbettungsmodell-Build-ID, die für die Vektorisierung verwendet werden soll. | Ja | |
| Typ | enum | Der Typbezeichner, immer „model_id“ für diesen Vektorisierungsquelltyp. Möglicher Wert: model_id |
Ja |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: system_assigned_managed_identity |
Ja |
AzureChatDataSourceType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | azure_searchazure_cosmos_dbelasticsearchpineconemongo_db |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| managed_identity_resource_id | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: user_assigned_managed_identity |
Ja |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Kennwort | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: username_and_password |
Ja | |
| username | Schnur | Ja |
AzureChatDataSourceVectorizationSource
Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann.
Diskriminator für AzureChatDataSourceVectorizationSource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
deployment_name |
AzureChatDataSourceDeploymentNameVectorizationSource |
integrated |
AzureChatDataSourceIntegratedVectorizationSource |
model_id |
AzureChatDataSourceModelIdVectorizationSource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | Objekt | Ja |
AzureChatDataSourceVectorizationSourceType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | endpointdeployment_namemodel_idintegrated |
AzureChatMessageContext
Eine zusätzliche Eigenschaft, die Chatabschlussantwortnachrichten hinzugefügt wird, die vom Azure OpenAI-Dienst erstellt werden, wenn Erweiterungsverhalten verwendet wird. Dazu gehören Absichts- und Zitatinformationen aus dem Feature „On Your Data“.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| all_retrieved_documents | Objekt | Zusammenfassende Informationen zu Dokumenten, die vom Datenabrufvorgang empfangen werden. | Nein | |
| └– chunk_id | Schnur | Die Segment-ID für das Zitat. | Nein | |
| └– Inhalt | Schnur | Der Inhalt des Zitats. | Nein | |
| └– Datenquellenindex | integer | Der Index der Datenquelle, die für den Abruf verwendet wird. | Nein | |
| └– Dateipfad | Schnur | Der Dateipfad für das Zitat. | Nein | |
| └– filter_begründung | enum | Falls zutreffend, ein Hinweis, warum das Dokument gefiltert wurde. Mögliche Werte: score, rerank |
Nein | |
| └─ original_search_score | number | Die ursprüngliche Suchergebnisscore für den Abruf. | Nein | |
| └– rerank_score | number | Der Neubewertungsscore für den Abruf. | Nein | |
| └– Suchanfragen | array | Die zum Abrufen von Dokumenten ausgeführten Suchabfragen. | Nein | |
| └– Titel | Schnur | Der Titel für das Zitat. | Nein | |
| └– URL | Schnur | Die URL des Zitats. | Nein | |
| citations | array | Die Zitate, die vom Datenabruf erzeugt werden. | Nein | |
| Absicht | Schnur | Die erkannte Absicht aus dem Chatverlauf, die verwendet wird, um den Gesprächskontext zwischen Interaktionen aufrechtzuerhalten | Nein |
AzureContentFilterBlocklistResult
Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| details | array | Die Paare einzelner Blocklisten-IDs, und ob sie zu einer Filteraktion geführt haben. | Nein | |
| gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Ja |
AzureContentFilterCompletionTextSpan
Eine Darstellung eines Bereichs des Vervollständigungstexts, der von Azure OpenAI-Inhaltsfilterergebnissen verwendet wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| completion_end_offset | integer | Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. | Ja | |
| completion_start_offset | integer | Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. | Ja |
AzureContentFilterCompletionTextSpanDetectionResult
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| details | array | Detaillierte Informationen zu den erkannten Vervollständigungstextabschnitten. | Ja | |
| detected | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja |
AzureContentFilterCustomTopicResult
Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| details | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Ja |
AzureContentFilterDetectionResult
Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| detected | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja |
AzureContentFilterPersonallyIdentifiableInformationResult
Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| redacted_text | Schnur | Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. | Nein | |
| sub_categories | array | Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). | Nein |
AzureContentFilterResultForChoice
Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| custom_blocklists | Objekt | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– Einzelheiten | array | Die Paare einzelner Blocklisten-IDs, und ob sie zu einer Filteraktion geführt haben. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Nein | |
| custom_topics | Objekt | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Einzelheiten | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Nein | |
| Fehler | Objekt | Wenn vorhanden, Details über einen Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abschließen konnte. | Nein | |
| └– Code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | Nein | |
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Nein | |
| hate | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| personally_identifiable_information | Objekt | Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten. | Nein | |
| └– redacted_text | Schnur | Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. | Nein | |
| └─ Unterkategorien | array | Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). | Nein | |
| profanity | Objekt | Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Nein | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| protected_material_code | Objekt | Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. | Nein | |
| └- Zitat | Objekt | Falls verfügbar, beschreiben die Zitatdetails die zugeordnete Lizenz und den zugehörigen Speicherort. | Nein | |
| └– URL | Schnur | Die mit der Lizenz verknüpfte URL. | Nein | |
| └– Lizenz | Schnur | Der Name oder der Bezeichner der Lizenz, die der Erkennung zugeordnet ist. | Nein | |
| └– erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Nein | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| protected_material_text | Objekt | Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Nein | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| self_harm | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| sexual | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Nein | ||
| violence | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein |
AzureContentFilterResultForPrompt
Ein Inhaltsfilterergebnis, das einem einzelnen Eingabepromptelement in einem generativen KI-System zugeordnet ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_filter_results | Objekt | Die Inhaltsfilterkategoriedetails für das Ergebnis. | Nein | |
| └– benutzerdefinierte Sperrlisten | Objekt | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– Einzelheiten | array | Die Paare einzelner Blocklisten-IDs, und ob sie zu einer Filteraktion geführt haben. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Nein | |
| └─ custom_topics | Objekt | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Einzelheiten | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Nein | |
| └– Fehler | Objekt | Wenn vorhanden, Details über einen Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abschließen konnte. | Nein | |
| └– Code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | Nein | |
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Nein | |
| └– Hass | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| └– indirekter_Angriff | Objekt | Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Nein | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Entsperrung | Objekt | Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Nein | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Profanität | Objekt | Ein gekennzeichnetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltskategorie im Inhalt erkannt wurde. | Nein | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Selbstverletzung | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| └─ sexual | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| └– Gewalt | Objekt | Ein beschriftetes Ergebniselement des Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und den qualitativen Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Nein | |
| └– Schweregrad | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Nein | |
| prompt_index | integer | Der Index des Eingabeprompts, der den zugehörigen Inhaltsfilter-Ergebniskategorien zugeordnet ist. | Nein |
AzureContentFilterSeverityResult
Ein beschriftetes Inhaltsfilter-Ergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| severity | enum | Der gekennzeichnete Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja |
AzureCosmosDBChatDataSource
Stellt eine Datenquellenkonfiguration dar, die eine Azure CosmosDB-Ressource verwenden wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parameter | Objekt | Die Parameterinformationen zum Steuern der Verwendung der Azure CosmosDB-Datenquelle. | Ja | |
| └– erlaube_unvollständiges_Ergebnis | boolean | Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt. |
Nein | Falsch |
| └– Authentifizierung | AzureChatDataSourceConnectionStringAuthenticationOptions | Nein | ||
| └– container_name | Schnur | Nein | ||
| └─ database_name | Schnur | Nein | ||
| └– embedding_dependency | AzureChatDataSourceVectorizationSource | Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. | Nein | |
| └– fields_mapping | Objekt | Nein | ||
| └─ content_fields | array | Nein | ||
| └─ Inhalt_Feldtrenner | Schnur | Nein | ||
| └─ filepath_field | Schnur | Nein | ||
| └– Titel_Feld | Schnur | Nein | ||
| └– url_field | Schnur | Nein | ||
| └─ Vektorfelder | array | Nein | ||
| └– in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | Nein | |
| └– Kontexte_einschließen | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
Nein | ['Zitate', 'Absicht'] |
| └– index_name | Schnur | Nein | ||
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig nimmt das System eine automatische Bestimmung vor. |
Nein | |
| └– Striktheit | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort. |
Nein | |
| └– top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. | Nein | |
| Typ | enum | Der diskriminierte Typbezeichner, der immer „azure_cosmos_db“ ist. Möglicher Wert: azure_cosmos_db |
Ja |
AzureCreateChatCompletionRequest
Das erweiterte Anforderungsmodell für Chatvervollständigungen mit dem Azure OpenAI Service. Dadurch wird die Möglichkeit hinzugefügt, Datenquellen für das Feature „On Your Data“ bereitzustellen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| audio | Objekt | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mitmodalities: ["audio"]. |
Nein | |
| └─ format | enum | Gibt das Audioformat der Ausgabe an. Muss eins der folgende Formate aufweisen: wav, mp3, flac,opus oder pcm16.Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16 |
Nein | |
| └– Stimme | Objekt | Nein | ||
| data_sources | array | Die Datenquellen, die für das Feature „On Your Data“ verwendet werden sollen, exklusiv für Azure OpenAI. | Nein | |
| frequency_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Modellzahlen verringert werden Wahrscheinlichkeit, dieselbe Zeile wörtlich zu wiederholen. |
Nein | 0 |
| function_call | enum | Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.Mögliche Werte: none, auto |
Nein | |
| Funktionen | array | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
Nein | |
| logit_bias | Objekt | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem verwandten Bias-Wert von -100 bis 100 zuordnet. Mathematisch der Trend wird vor der Stichprobenentnahme zu den logits hinzugefügt, die vom Modell generiert wurden. Der genaue Effekt variiert je nach Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl erhöhen oder verringern; Werte wie -100 oder 100 sollte dies zu einem Verbot oder einer exklusiven Auswahl des betreffenden Tokens führen. |
Nein | Nichts |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn WAHR gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das zurückgegeben wird in der content von message. |
Nein | Falsch |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
Nein | |
| maximale_Anzahl_von_Tokens | integer | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Dieser Wert kann zur Kostenkontrolle für über die API generierten Text verwendet werden. Dieser Wert ist jetzt veraltet zugunsten von max_completion_tokens, und istnicht mit Modellen der o1-Serie kompatibel. |
Nein | |
| messages | array | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig von Modell, das Sie verwenden, werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, wie Text, Bilder und Audio. |
Ja | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| modalities | Objekt | Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modellsowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden: ["text", "audio"] |
Nein | |
| Modell | Schnur | Der Modellimplementierungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. | Ja | |
| n | integer | Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. |
Nein | 1 |
| Parallele Werkzeugaufrufe | Objekt | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| Vorhersage | Objekt | Basisdarstellung der vorhergesagten Ausgabe eines Modells. | Nein | |
| └– Typ | OpenAI.ChatOutputPredictionType | Nein | ||
| presence_penalty | number | Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit des Modells erhöht wird, über neue Themen zu sprechen. |
Nein | 0 |
| Denkanstrengung | Objekt |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| Antwortformat | Objekt | Nein | ||
| └– Typ | enum | Mögliche Werte: text, , json_objectjson_schema |
Nein | |
| Seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen. |
Nein | |
| stop | Objekt | Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Das Beendigungssequenz ist nicht im zurückgegebenen Text enthalten. |
Nein | |
| store | boolean | Ob die Ausgabe dieser Chat-Anfrage dieser Chatabschlussanforderung für die Verwendung in Modelldestillation oder Bewertungsprodukten gespeichert werden soll oder nicht. |
Nein | Falsch |
| Datenstrom | boolean | Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von server-sent-Ereignissen generiert werden. |
Nein | Falsch |
| stream_options | Objekt | Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen. |
Nein | |
| └– include_usage | boolean | Wenn dies festgelegt ist, wird ein zusätzlicher Block vor dem data: [DONE]-Meldung. Das Feld usage in diesem Abschnitt zeigt die Tokenverbrauchsstatistikenfür die gesamte Anforderung an, und das Feld choices ist immer ein leeresArray. Alle anderen Blöcke werden auch ein Feld usage enthalten, aber mit einem NULL-Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den letzten Verbrauchsblock, der den gesamten Tokenverbrauch für die Anforderung enthält. |
Nein | |
| Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | 1 |
| Toolauswahl | OpenAI.ChatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
Nein | |
| Werkzeuge | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Es werden maximal 128 Funktionen unterstützt. | Nein | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | 1 |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der ihnen helfen kann, Missbrauch zu überwachen und erkennen. |
Nein | |
| user_security_context | AzureUserSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, welche die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud. | Nein |
AzureCreateChatCompletionResponse
Das erweiterte Antwortmodell für die oberste Ebene der Chat-Vervollständigungsantwort im Azure OpenAI-Dienst. Dieses Modell fügt Anmerkungen zum Inhaltsfilter für verantwortungsvolle KI für Prompteingabe hinzu.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Optionen | array | Ja | ||
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde | Ja | |
| id | Schnur | Ein eindeutiger Bezeichner für die Chatvervollständigung | Ja | |
| Modell | Schnur | Das Modell, das für die Chatvervollständigung verwendet wird | Ja | |
| Objekt | enum | Der Objekttyp, der immer chat.completion ist.Möglicher Wert: chat.completion |
Ja | |
| prompt_filter_results | array | Die Anmerkungen zu Inhaltsfiltern für verantwortungsvolle KI, die mit Prompteingaben in Chatabschlüsse verknüpft sind. | Nein | |
| system_fingerprint | Schnur | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
Nein | |
| usage | OpenAI.CompletionUsage | Nutzungsstatistiken für die Vervollständigungsanforderung | Nein |
AzureCreateChatCompletionStreamResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Optionen | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehrere Elemente enthalten, wenn n größer als 1 ist. Kann auch leer sein fürdas letzte Segment, wenn Sie stream_options: {"include_usage": true} festlegen. |
Ja | |
| content_filter_results | AzureContentFilterResultForChoice | Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. | Nein | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde Alle Blöcke weisen den gleichen Zeitstempel auf. | Ja | |
| delta | AzureChatCompletionStreamResponseDelta | Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht in Azure OpenAI Service. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature „On Your Data“ für Absicht, Zitate und andere Informationen im Zusammenhang mit der durchgeführten Retrieval Augmented Generation. |
Nein | |
| id | Schnur | Ein eindeutiger Bezeichner für die Chatvervollständigung Jeder Block weist die gleiche ID auf. | Ja | |
| Modell | Schnur | Das Modell, das die Vervollständigung generiert. | Ja | |
| Objekt | enum | Der Objekttyp, der immer chat.completion.chunk ist.Möglicher Wert: chat.completion.chunk |
Ja | |
| system_fingerprint | Schnur | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können. |
Nein | |
| usage | Objekt | Nutzungsstatistiken für die Vervollständigungsanforderung | Nein | |
| └─ completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung | Nein | 0 |
| └─ completion_tokens_details | Objekt | Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. | Nein | |
| └– akzeptierte_Vorhersage_Token | integer | Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der Vorhersage, die in der Vervollständigung angezeigt wurden. |
Nein | 0 |
| └─ audio_tokens | integer | Vom Modell generierte Audioeingabetoken. | Nein | 0 |
| └─ reasoning_tokens | integer | Vom Modell generierte Tokens zur Begründung. | Nein | 0 |
| └– rejected_prediction_tokens | integer | Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der Vorhersage, die im Abschluss nicht angezeigt wurden. Jedoch werden diese Token wie Begründungstoken für Grenzwerte bei Abrechnung, Ausgabe und Kontextfenster weiterhin zu Summe gezählt. |
Nein | 0 |
| └– prompt_tokens | integer | Anzahl der Token im Prompt. | Nein | 0 |
| └─ prompt_tokens_details | Objekt | Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. | Nein | |
| └─ audio_tokens | integer | Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. | Nein | 0 |
| └– zwischengespeicherte_Token | integer | Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. | Nein | 0 |
| └─ total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). | Nein | 0 |
AzureCreateEmbeddingRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
Nein | |
| encoding_format | enum | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.Mögliche Werte: float, base64 |
Nein | |
| Eingabe | Zeichenfolge oder Array | Ja | ||
| Modell | Schnur | Das Modell, das für die Einbettungsanforderung verwendet werden soll. | Ja | |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein |
AzureCreateFileRequestMultiPart
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| expires_after | Objekt | Ja | ||
| └– Anker | AzureFileExpiryAnchor | Nein | ||
| └─ Sekunden | integer | Nein | ||
| file | Schnur | Ja | ||
| purpose | enum | Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwendenMögliche Werte: assistants, , batch, fine-tuneevals |
Ja |
AzureCreateResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| include | array | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführungin den Aufrufelementen des Code-Interpreter-Tools. - computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs.- file_search_call.results: Fügen Sie die Suchergebnisse eindes Aufrufs des Dateisuchtools. - message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B. wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt istfür das Null-Datenaufbewahrungsprogramm registriert). |
Nein | |
| Eingabe | Zeichenfolge oder Array | Nein | ||
| instructions | Schnur | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Modell | Schnur | Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. | Ja | |
| Parallele Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| previous_response_id | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| prompt | Objekt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └─ id | Schnur | Der eindeutige Bezeichner der zu verwendenden Promptvorlage. | Nein | |
| └- Variablen | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
Nein | |
| └─ version | Schnur | Optionale Version der Promptvorlage. | Nein | |
| Begründung | Objekt |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └– Aufwand | OpenAI.ReasoningEffort |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| └– generate_summary | enum |
Veraltet. , verwenden Sie stattdessen summary.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| └– Zusammenfassung | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| store | boolean | Gibt an, ob die generierte Modellantwort gespeichert werden soll zur späteren Abfrage über . |
Nein | Richtig |
| Datenstrom | boolean | Bei Festlegung auf WAHR werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von server-sent-Ereignissen generiert werden. Siehe den Abschnitt „Streaming“ weiter unten finden Sie weitere Informationen. |
Nein | Falsch |
| Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | 1 |
| Text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| Toolauswahl | Objekt | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines odervon Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. |
Nein | |
| └– Typ | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | Nein | |
| Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Funktionen des Modells erweitern, z. B. die Dateisuche. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, die dem Modell das Aufrufen Ihres eigenen Codes ermöglichen. |
Nein | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | 1 |
| Kürzung | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein |
Azure-Fehlermeldung
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Fehler | Objekt | Die Fehlerdetails. | Nein | |
| └– Code | Schnur | Der eindeutige, vom Computer generierte Bezeichner für den Fehler. | Nein | |
| └─ innerer_Fehler | Nein | |||
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Nein | |
| └- param | Schnur | Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter | Nein | |
| └– Typ | enum | Der Objekttyp, immer „Fehler”. Möglicher Wert: error |
Nein |
AzureEvalAPICompletionsSamplingParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parallele Werkzeugaufrufe | boolean | Nein | ||
| Antwortformat | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| Werkzeuge | array | Nein |
AzureEvalAPIModelSamplingParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| maximale_Anzahl_von_Tokens | integer | Die maximale Anzahl von Tokens in der generierten Ausgabe. | Nein | |
| Denkanstrengung | enum | Steuert den Grad des Begründungsaufwands, der während der Generierung angewendet wird. Mögliche Werte: low, , mediumhigh |
Nein | |
| Seed | integer | Ein Startwert zum Initialisieren der Zufallsmuster während der Stichprobenentnahme. | Nein | |
| Temperatur | number | Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. | Nein | |
| top_p | number | Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. | Nein |
AzureEvalAPIResponseSamplingParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parallele Werkzeugaufrufe | boolean | Nein | ||
| Antwortformat | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| Werkzeuge | array | Nein |
AzureFileExpiryAnchor
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | created_at |
AzureFineTuneReinforcementMethod
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | Objekt | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Ja | |
| └─ calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Nein | |
| └- Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Nein | |
| └─ graders | Objekt | Nein | ||
| └– Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Nein | |
| └─ Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Nein | |
| └– Name | Schnur | Name des Bewerters (Graders) | Nein | |
| └─ Vorgang | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Nein | |
| └– Bereich | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| └– Referenz | Schnur | Der Text, für die Bewertung. | Nein | |
| └– Stichprobenparameter | Die Samplingparameter für das Modell. | Nein | ||
| └– Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Nein | |
| Hyperparameter | OpenAI.FineTuneReinforcementHyperparameters | Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter. | Nein | |
| Antwortformat | Objekt | Nein | ||
| └– json_schema | Objekt | JSON-Schema für das Antwortformat | Nein | |
| └– Typ | enum | Typ des Antwortformats Möglicher Wert: json_schema |
Nein |
AzureListFilesResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
AzureOpenAIFile
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Byte | integer | Die Größe der Datei in Byte. | Ja | |
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Datei. | Ja | |
| läuft_ab_am | integer | Der Unix-Zeitstempel (in Sekunden) für das Ablaufdatum der Datei. | Nein | |
| Dateiname | Schnur | Der Name der Datei. | Ja | |
| id | Schnur | Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Objekt | enum | Der Objekttyp, der immer file ist.Möglicher Wert: file |
Ja | |
| purpose | enum | Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, assistants_output, batch, batch_output, fine-tune und fine-tune-results.Mögliche Werte: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals |
Ja | |
| status | enum | Mögliche Werte: uploaded, pending, running, processed, error, deleting, deleted |
Ja | |
| status_details | Schnur | Veraltet (nicht mehr empfohlen) Details dazu, warum bei der Überprüfung einer Trainingsdatei für die Feinabstimmung ein Fehler aufgetreten ist, finden Sie im Feld error im fine_tuning.job. |
Nein |
AzurePiiSubCategoryResult
Ergebnisdetails für einzelne PIIHarmSubCategory(s).
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| detected | boolean | Gibt an, ob die gekennzeichnete Inhaltsunterkategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion für diese Unterkategorie geführt hat. | Ja | |
| redigiert | boolean | Gibt an, ob der Inhalt für diese Unterkategorie redigiert wurde. | Ja | |
| sub_category | Schnur | Die PIIHarmSubCategory, die ausgewertet wurde. | Ja |
AzureResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| Fehler | Objekt | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Ja | |
| └– Code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | Nein | |
| └– Nachricht | Schnur | Eine für Menschen lesbare Beschreibung des Fehlers. | Nein | |
| id | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Ja | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| instructions | Zeichenfolge oder Array | Ja | ||
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| Modell | Schnur | Das Modell, das zum Generieren dieser Antwort verwendet wird. | Ja | |
| Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| output_text | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| Parallele Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| previous_response_id | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| prompt | Objekt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └─ id | Schnur | Der eindeutige Bezeichner der zu verwendenden Promptvorlage. | Nein | |
| └- Variablen | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
Nein | |
| └─ version | Schnur | Optionale Version der Promptvorlage. | Nein | |
| Begründung | Objekt |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └– Aufwand | OpenAI.ReasoningEffort |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| └– generate_summary | enum |
Veraltet. , verwenden Sie stattdessen summary.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| └– Zusammenfassung | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Ja | |
| Text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| Toolauswahl | Objekt | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines odervon Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. |
Nein | |
| └– Typ | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | Nein | |
| Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Ja | |
| Kürzung | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| usage | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Ja |
AzureSearchChatDataSource
Stellt eine Datenquellenkonfiguration dar, die eine Azure Search-Ressource verwenden wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parameter | Objekt | Die Parameterinformationen zum Steuern der Verwendung der Azure Search-Datenquelle. | Ja | |
| └– erlaube_unvollständiges_Ergebnis | boolean | Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt. |
Nein | Falsch |
| └– Authentifizierung | Objekt | Nein | ||
| └─ Zugriffstoken | Schnur | Nein | ||
| └– Schlüssel | Schnur | Nein | ||
| └– managed_identity_resource_id | Schnur | Nein | ||
| └– Typ | enum | Möglicher Wert: access_token |
Nein | |
| └– embedding_dependency | Objekt | Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt. | Nein | |
| └– Authentifizierung | AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions | Der Authentifizierungsmechanismus, der mit der Endpunkt-basierten Vektorisierungsquelle verwendet werden soll. Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen. |
Nein | |
| └– deployment_name | Schnur | Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Instanz vorhanden sein Ressource als Modellimplementierung, die für Chatabschlüsse verwendet wird. |
Nein | |
| └- Abmessungen | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Nur in „text-embedding-3” und späteren Modellen unterstützt. |
Nein | |
| └– Endpunkt | Schnur | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im folgenden Format sein: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter „api-version“ ist nicht zulässig. |
Nein | |
| └– Typ | enum | Der Typbezeichner, immer „integriert” für diesen Vektorisierungsquelltyp. Möglicher Wert: integrated |
Nein | |
| └– Endpunkt | Schnur | Der absolute Endpunktpfad für die zu verwendende Azure Search-Ressource. | Nein | |
| └– fields_mapping | Objekt | Die Feldzuordnungen, die mit der Azure Search-Ressource verwendet werden sollen. | Nein | |
| └─ content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | Nein | |
| └─ Inhalt_Feldtrenner | Schnur | Das Trennmuster, das Inhaltsfelder verwenden sollen. | Nein | |
| └─ filepath_field | Schnur | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | Nein | |
| └- image_vector_fields | array | Die Namen von Feldern, die Bildvektordaten darstellen. | Nein | |
| └– Titel_Feld | Schnur | Der Name des Indexfelds, das als Titel verwendet werden soll. | Nein | |
| └– url_field | Schnur | Der Name des Indexfelds, das als URL verwendet werden soll. | Nein | |
| └─ Vektorfelder | array | Die Namen von Feldern, die Vektordaten darstellen. | Nein | |
| └─ filter | Schnur | Ein Filter, der auf die Suche angewendet werden soll. | Nein | |
| └– in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | Nein | |
| └– Kontexte_einschließen | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
Nein | ['Zitate', 'Absicht'] |
| └– index_name | Schnur | Der Name des zu verwendenden Indexes, wie in der Azure Search-Ressource angegeben. | Nein | |
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig nimmt das System eine automatische Bestimmung vor. |
Nein | |
| └– Abfragetyp | enum | Der Abfragetyp für die zu verwendende Azure Search-Ressource. Mögliche Werte: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid |
Nein | |
| └─ semantische_Konfiguration | Schnur | Zusätzliche semantische Konfiguration für die Abfrage. | Nein | |
| └– Striktheit | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort. |
Nein | |
| └– top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. | Nein | |
| Typ | enum | Der diskriminierte Typbezeichner, der immer „azure_search” ist. Möglicher Wert: azure_search |
Ja |
AzureUserSecurityContext
Der Benutzersicherheitskontext enthält mehrere Parameter, welche die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Erfahren Sie mehr über den Schutz von KI-Anwendungen mithilfe von Microsoft Defender for Cloud.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| application_name | Schnur | Der Namen der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. | Nein | |
| end_user_id | Schnur | Dieser Bezeichner ist die Benutzerobjekt-ID von Microsoft Entra ID (früher Azure Active Directory), die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. | Nein | |
| end_user_tenant_id | Schnur | Die Microsoft 365-Mandanten-ID, zu der der Endbenutzer gehört. Sie ist erforderlich, wenn die generative KI-Anwendung mandantenfähig ist. | Nein | |
| source_ip | Schnur | Erfasst die IP-Adresse des ursprünglichen Clients. | Nein |
ChatCompletionMessageToolCallsItem
Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.
Array von: OpenAI.ChatCompletionMessageToolCall
CopiedAccountDetails
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| destinationResourceId | Schnur | Die ID der Zielressource, in die das Modell kopiert wurde. | Ja | |
| region | Schnur | Die Region, in die das Modell kopiert wurde. | Ja | |
| status | enum | Der Status des Kopiervorgangs. Mögliche Werte: Completed, , FailedInProgress |
Ja |
CopyModelRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| destinationResourceId | Schnur | Die ID der zu kopierenden Zielressource. | Ja | |
| region | Schnur | Die Region, in die das Modell kopiert werden soll. | Ja |
CopyModelResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| checkpointedModelName | Schnur | Die ID des kopierten Modells. | Ja | |
| copiedAccountDetails | array | Die ID der Zielressourcen-ID, in die sie kopiert wurde | Ja | |
| fineTuningJobId | Schnur | Die ID des Feinabstimmungsauftrags, aus dem der Prüfpunkt kopiert wurde. | Ja |
ElasticsearchChatDataSource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parameter | Objekt | Die Parameterinformationen zum Steuern der Verwendung der Elasticsearch-Datenquelle. | Ja | |
| └– erlaube_unvollständiges_Ergebnis | boolean | Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt. |
Nein | Falsch |
| └– Authentifizierung | Objekt | Nein | ||
| └– encoded_api_key | Schnur | Nein | ||
| └– Schlüssel | Schnur | Nein | ||
| └– key_id | Schnur | Nein | ||
| └– Typ | enum | Möglicher Wert: encoded_api_key |
Nein | |
| └– embedding_dependency | AzureChatDataSourceVectorizationSource | Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. | Nein | |
| └– Endpunkt | Schnur | Nein | ||
| └– fields_mapping | Objekt | Nein | ||
| └─ content_fields | array | Nein | ||
| └─ Inhalt_Feldtrenner | Schnur | Nein | ||
| └─ filepath_field | Schnur | Nein | ||
| └– Titel_Feld | Schnur | Nein | ||
| └– url_field | Schnur | Nein | ||
| └─ Vektorfelder | array | Nein | ||
| └– in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | Nein | |
| └– Kontexte_einschließen | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
Nein | ['Zitate', 'Absicht'] |
| └– index_name | Schnur | Nein | ||
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig nimmt das System eine automatische Bestimmung vor. |
Nein | |
| └– Abfragetyp | enum | Mögliche Werte: simple, vector |
Nein | |
| └– Striktheit | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort. |
Nein | |
| └– top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. | Nein | |
| Typ | enum | Der diskriminierte Typbezeichner, der immer „elasticsearch” ist. Möglicher Wert: elasticsearch |
Ja |
MongoDBChatDataSource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parameter | Objekt | Die Parameterinformationen zum Steuern der Verwendung der MongoDB-Datenquelle. | Ja | |
| └– erlaube_unvollständiges_Ergebnis | boolean | Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt. |
Nein | Falsch |
| └– app_name | Schnur | Der Name der Mongo DB-Anwendung. | Nein | |
| └– Authentifizierung | Objekt | Nein | ||
| └– Kennwort | Schnur | Nein | ||
| └– Typ | enum | Möglicher Wert: username_and_password |
Nein | |
| └– Benutzername | Schnur | Nein | ||
| └─ collection_name | Schnur | Der Name der MongoDB-Sammlung. | Nein | |
| └─ database_name | Schnur | Der Name der MongoDB-Datenbank. | Nein | |
| └– embedding_dependency | Objekt | Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellimplementierung ausführt. | Nein | |
| └– Authentifizierung | AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions | Der Authentifizierungsmechanismus, der mit der Endpunkt-basierten Vektorisierungsquelle verwendet werden soll. Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen. |
Nein | |
| └– deployment_name | Schnur | Die Einbettungsmodellimplementierung für die Verwendung bei der Vektorisierung. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Instanz vorhanden sein Ressource als Modellimplementierung, die für Chatabschlüsse verwendet wird. |
Nein | |
| └- Abmessungen | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Nur in „text-embedding-3” und späteren Modellen unterstützt. |
Nein | |
| └– Endpunkt | Schnur | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Sie sollte im folgenden Format sein: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter „api-version“ ist nicht zulässig. |
Nein | |
| └– Typ | enum | Der Typbezeichner, immer „deployment_name“ für diesen Vektorisierungsquelltyp. Möglicher Wert: deployment_name |
Nein | |
| └– Endpunkt | Schnur | Der Name des MongoDB-Clusterendpunkts. | Nein | |
| └– fields_mapping | Objekt | Feldzuordnungen, die auf Daten angewendet werden sollen, die von der MongoDB-Datenquelle verwendet werden. Beachten Sie, dass für MongoDB Inhalts- und Vektorfeldzuordnungen erforderlich sind. |
Nein | |
| └─ content_fields | array | Nein | ||
| └─ Inhalt_Feldtrenner | Schnur | Nein | ||
| └─ filepath_field | Schnur | Nein | ||
| └– Titel_Feld | Schnur | Nein | ||
| └– url_field | Schnur | Nein | ||
| └─ Vektorfelder | array | Nein | ||
| └– in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | Nein | |
| └– Kontexte_einschließen | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
Nein | ['Zitate', 'Absicht'] |
| └– index_name | Schnur | Der Name des MongoDB-Indexes. | Nein | |
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig nimmt das System eine automatische Bestimmung vor. |
Nein | |
| └– Striktheit | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort. |
Nein | |
| └– top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. | Nein | |
| Typ | enum | Der diskriminierte Typbezeichner, der immer „mongo_db“ ist. Möglicher Wert: mongo_db |
Ja |
OpenAI.Annotation
Diskriminator für OpenAI.Annotation
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_citation |
OpenAI.AnnotationFileCitation |
url_citation |
OpenAI.AnnotationUrlCitation |
file_path |
OpenAI.AnnotationFilePath |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.AnnotationType | Ja |
OpenAI.AnnotationFileCitation
Ein Verweis auf eine Datei.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datei-ID | Schnur | Die ID der Datei. | Ja | |
| Dateiname | Schnur | Der Dateiname der Datei, auf die verwiesen wird. | Ja | |
| index | integer | Der Index der Datei in der Liste der Dateien. | Ja | |
| Typ | enum | Der Typ des Dateizitats Immer file_citation.Möglicher Wert: file_citation |
Ja |
OpenAI.AnnotationFilePath
Ein Pfad zu einer Datei.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datei-ID | Schnur | Die ID der Datei. | Ja | |
| index | integer | Der Index der Datei in der Liste der Dateien. | Ja | |
| Typ | enum | Der Typ des Dateityps. Immer file_path.Möglicher Wert: file_path |
Ja |
OpenAI.AnnotationType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | file_citationurl_citationfile_pathcontainer_file_citation |
OpenAI.AnnotationUrlCitation
Ein Verweis auf eine Webressource, die zum Generieren einer Modellantwort verwendet wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| end_index | integer | Der Index des letzten Zeichens des URL-Verweises in der Nachricht. | Ja | |
| start_index | integer | Der Index des ersten Zeichens des URL-Verweises in der Nachricht. | Ja | |
| title | Schnur | Der Titel der Webressource. | Ja | |
| Typ | enum | Der Typ des URL-Verweises. Immer url_citation.Möglicher Wert: url_citation |
Ja | |
| url | Schnur | Die URL der Webressource. | Ja |
OpenAI.ApproximateLocation
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Stadt | Schnur | Nein | ||
| country | Schnur | Nein | ||
| region | Schnur | Nein | ||
| Zeitzone | Schnur | Nein | ||
| Typ | enum | Möglicher Wert: approximate |
Ja |
OpenAI.AutoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Immer auto.Möglicher Wert: auto |
Ja |
OpenAI.ChatCompletionFunctionCallOption
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| name | Schnur | Der Name der aufzurufenden Funktion. | Ja |
OpenAI.ChatCompletionFunctions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | Nein | |
| name | Schnur | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
| Parameter | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Lesen Sie die JSON-Schemareferenz für Dokumentation über das Format. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
Nein |
OpenAI.ChatCompletionMessageAudioChunk
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | Schnur | Nein | ||
| läuft_ab_am | integer | Nein | ||
| id | Schnur | Nein | ||
| Transkript | Schnur | Nein |
OpenAI.ChatCompletionMessageToolCall
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Funktion | Objekt | Die Funktion, die das Modell aufgerufen hat | Ja | |
| └- Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | Nein | |
| └– Name | Schnur | Der Name der aufzurufenden Funktion. | Nein | |
| id | Schnur | Die ID des Toolaufrufs | Ja | |
| Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionMessageToolCallChunk
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Funktion | Objekt | Nein | ||
| └- Argumente | Schnur | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise durch Halluzination Parameter generiert, die nicht in Ihrem Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie die Funktion aufrufen. | Nein | |
| └– Name | Schnur | Der Name der aufzurufenden Funktion. | Nein | |
| id | Schnur | Die ID des Toolaufrufs | Nein | |
| index | integer | Ja | ||
| Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Nein |
OpenAI.ChatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Funktion | Objekt | Ja | ||
| └– Name | Schnur | Der Name der aufzurufenden Funktion. | Nein | |
| Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionRequestAssistantMessage
Nachrichten, die vom Modell als Antwort auf Benutzernachrichten gesendet werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| audio | Objekt | Daten zu einer vorherigen Audioantwort des Modells. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für eine vorherige Audioantwort des Modells. | Nein | |
| Inhalt | Zeichenfolge oder Array | Nein | ||
| function_call | Objekt | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein | |
| └- Argumente | Schnur | Nein | ||
| └– Name | Schnur | Nein | ||
| name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| Ablehnung | Schnur | Die Ablehnungsnachricht des Assistenten. | Nein | |
| Rolle (role) | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).Möglicher Wert: assistant |
Ja | |
| tool_calls | ChatCompletionMessageToolCallsItem | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | Nein |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Ablehnung | Schnur | Eine vom Modell generierte Ablehnungsmeldung. | Ja | |
| Text | Schnur | Der Textinhalt. | Ja | |
| Typ | enum | Der Typ des Inhaltsteils Möglicher Wert: refusal |
Ja |
OpenAI.ChatCompletionRequestDeveloperMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Ja | ||
| name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| Rolle (role) | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).Möglicher Wert: developer |
Ja |
OpenAI.ChatCompletionRequestFunctionMessage
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Schnur | Die Inhalte der Funktionsmeldung. | Ja | |
| name | Schnur | Der Name der aufzurufenden Funktion. | Ja | |
| Rolle (role) | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function).Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionRequestMessage
Diskriminator für OpenAI.ChatCompletionRequestMessage
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
system |
OpenAI.ChatCompletionRequestSystemMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Nein | ||
| Rolle (role) | Objekt | Die Rolle des Autors einer Nachricht | Ja |
OpenAI.ChatCompletionRequestMessageContentPart
Diskriminator for OpenAI.ChatCompletionRequestMessageContentPart
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ChatCompletionRequestMessageContentPartType | Ja |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| input_audio | Objekt | Ja | ||
| └– Daten | Schnur | Base64-codierte Audiodaten. | Nein | |
| └─ format | enum | Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”. Mögliche Werte: wav, mp3 |
Nein | |
| Typ | enum | Der Typ des Inhaltsteils Immer input_audio.Möglicher Wert: input_audio |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartFile
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| file | Objekt | Ja | ||
| └– file_data | Schnur | Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell verwendet werden als String. |
Nein | |
| └– file_id | Schnur | Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. | Nein | |
| └– Dateiname | Schnur | Der Name der Datei, verwendet beim Übergeben der Datei an das Modell als string. |
Nein | |
| Typ | enum | Der Typ des Inhaltsteils Immer file.Möglicher Wert: file |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| image_url | Objekt | Ja | ||
| └– Detail | enum | Gibt den Detailgrad des Bilds an. Mögliche Werte: auto, , lowhigh |
Nein | |
| └– URL | Schnur | Entweder eine URL des Bilds oder die base64-codierten Bilddaten | Nein | |
| Typ | enum | Der Typ des Inhaltsteils Möglicher Wert: image_url |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Ablehnung | Schnur | Eine vom Modell generierte Ablehnungsmeldung. | Ja | |
| Typ | enum | Der Typ des Inhaltsteils Möglicher Wert: refusal |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartText
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Der Textinhalt. | Ja | |
| Typ | enum | Der Typ des Inhaltsteils Möglicher Wert: text |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | textfileinput_audioimage_urlrefusal |
OpenAI.ChatCompletionRequestSystemMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie bei o1-Modellen und neueren Modellen stattdessen developer-Nachrichten für diesen Zweck.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Ja | ||
| name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| Rolle (role) | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: system).Möglicher Wert: system |
Ja |
OpenAI.ChatCompletionRequestSystemMessageContentPart
Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Ja | ||
| Rolle (role) | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).Möglicher Wert: tool |
Ja | |
| tool_call_id | Schnur | Toolaufruf, auf den diese Nachricht reagiert. | Ja |
OpenAI.ChatCompletionRequestToolMessageContentPart
Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Von einem Endbenutzer gesendete Nachrichten, die Prompts oder zusätzliche Kontextinformationen enthalten.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Ja | ||
| name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| Rolle (role) | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: user).Möglicher Wert: user |
Ja |
OpenAI.ChatCompletionRequestUserMessageContentPart
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| file | Objekt | Ja | ||
| └– file_data | Schnur | Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell verwendet werden als String. |
Nein | |
| └– file_id | Schnur | Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. | Nein | |
| └– Dateiname | Schnur | Der Name der Datei, verwendet beim Übergeben der Datei an das Modell als string. |
Nein | |
| image_url | Objekt | Ja | ||
| └– Detail | enum | Gibt den Detailgrad des Bilds an. Mögliche Werte: auto, , lowhigh |
Nein | |
| └– URL | Schnur | Entweder eine URL des Bilds oder die base64-codierten Bilddaten | Nein | |
| input_audio | Objekt | Ja | ||
| └– Daten | Schnur | Base64-codierte Audiodaten. | Nein | |
| └─ format | enum | Das Format der codierten Audiodaten. Unterstützt derzeit „wav” und „mp3”. Mögliche Werte: wav, mp3 |
Nein | |
| Text | Schnur | Der Textinhalt. | Ja | |
| Typ | enum | Der Typ des Inhaltsteils Immer file.Möglicher Wert: file |
Ja |
OpenAI.ChatCompletionRole
Die Rolle des Autors einer Nachricht
| Eigentum | Wert |
|---|---|
| Beschreibung | Die Rolle des Autors einer Nachricht |
| Typ | Schnur |
| Werte | systemdeveloperuserassistanttoolfunction |
OpenAI.ChatCompletionStreamOptions
Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| include_usage | boolean | Wenn dies festgelegt ist, wird ein zusätzlicher Block vor dem data: [DONE]-Meldung. Das Feld usage in diesem Abschnitt zeigt die Tokenverbrauchsstatistikenfür die gesamte Anforderung an, und das Feld choices ist immer ein leeresArray. Alle anderen Blöcke werden auch ein Feld usage enthalten, aber mit einem NULL-Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den letzten Verbrauchsblock, der den gesamten Tokenverbrauch für die Anforderung enthält. |
Nein |
OpenAI.ChatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| audio | Objekt | Nein | ||
| └– Daten | Schnur | Nein | ||
| └– abläuft_am | integer | Nein | ||
| └─ id | Schnur | Nein | ||
| └– Transkript | Schnur | Nein | ||
| Inhalt | Schnur | Die Inhalte der Blocknachricht. | Nein | |
| function_call | Objekt | Veraltet und durch tool_calls ersetzt. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
Nein | |
| └- Argumente | Schnur | Nein | ||
| └– Name | Schnur | Nein | ||
| Ablehnung | Schnur | Eine vom Modell generierte Ablehnungsmeldung. | Nein | |
| Rolle (role) | Objekt | Die Rolle des Autors einer Nachricht | Nein | |
| tool_calls | array | Nein |
OpenAI.ChatCompletionTokenLogprob
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Byte | array | Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist. |
Ja | |
| logprob | number | Die Protokollwahrscheinlichkeit dieses Tokens, wenn es zu den 20 wahrscheinlichsten Tokens gehört. Andernfalls wird der Wert „-9999.0“ verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. |
Ja | |
| token | Schnur | Das Token. | Ja | |
| top_logprobs | array | Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. |
Ja |
OpenAI.ChatCompletionTool
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Funktion | OpenAI.FunctionObject | Ja | ||
| Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Funktion | Objekt | Ja | ||
| └– Name | Schnur | Der Name der aufzurufenden Funktion. | Nein | |
| Typ | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Ja |
OpenAI.ChatOutputPrediction
Basisdarstellung der vorhergesagten Ausgabe eines Modells.
Diskriminator für OpenAI.ChatOutputPrediction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
content |
OpenAI.ChatOutputPredictionContent |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ChatOutputPredictionType | Ja |
OpenAI.ChatOutputPredictionContent
Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Ja | ||
| Typ | enum | Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist aktuell immer content.Möglicher Wert: content |
Ja |
OpenAI.ChatOutputPredictionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | content |
OpenAI.ChunkingStrategyRequestParam
Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet.
Diskriminator für OpenAI.ChunkingStrategyRequestParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Die Art der Blockbildungsstrategie. Mögliche Werte: auto, static |
Ja |
OpenAI.ChunkingStrategyResponseParam
Diskriminator für OpenAI.ChunkingStrategyResponseParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
other |
OpenAI.OtherChunkingStrategyResponseParam |
static |
OpenAI.StaticChunkingStrategyResponseParam |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Mögliche Werte: static, other |
Ja |
OpenAI.CodeInterpreterOutput
Diskriminator für OpenAI.CodeInterpreterOutput
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
image |
OpenAI.CodeInterpreterOutputImage |
logs |
OpenAI.CodeInterpreterOutputLogs |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.CodeInterpreterOutputType | Ja |
OpenAI.CodeInterpreterOutputImage
Die Bildausgabe des Code-Interpreters.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Typ der Ausgabe. Immer „image“. Möglicher Wert: image |
Ja | |
| url | Schnur | Die URL der Bildausgabe des Code-Interpreters. | Ja |
OpenAI.CodeInterpreterOutputLogs
Die Protokollausgabe aus dem Code-Interpreter.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| logs | Schnur | Die Protokollausgabe aus dem Code-Interpreter. | Ja | |
| Typ | enum | Der Typ der Ausgabe. Immer „logs“. Möglicher Wert: logs |
Ja |
OpenAI.CodeInterpreterOutputType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | logsimage |
OpenAI.CodeInterpreterTool
Ein Tool, das Python-Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Behälter | Objekt | Konfiguration für einen Codedolmetschercontainer. Optionales Angeben der IDs der Dateien, für die der Code ausgeführt werden soll. |
Ja | |
| └– file_ids | array | Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. | Nein | |
| └– Typ | enum | Immer auto.Möglicher Wert: auto |
Nein | |
| Typ | enum | Der Typ des Codedolmetschertools. Immer code_interpreter.Möglicher Wert: code_interpreter |
Ja |
OpenAI.CodeInterpreterToolAuto
Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datei-IDs | array | Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. | Nein | |
| Typ | enum | Immer auto.Möglicher Wert: auto |
Ja |
OpenAI.CodeInterpreterToolCallItemParam
Ein Toolaufruf zum Ausführen von Code.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | Schnur | Der auszuführende Code oder NULL, falls nicht verfügbar. | Ja | |
| container_id | Schnur | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Ja | |
| Ergebnisse | array | Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder. Kann NULL sein, wenn keine Ausgaben verfügbar sind. |
Ja | |
| Typ | enum | Möglicher Wert: code_interpreter_call |
Ja |
OpenAI.CodeInterpreterToolCallItemResource
Ein Toolaufruf zum Ausführen von Code.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | Schnur | Der auszuführende Code oder NULL, falls nicht verfügbar. | Ja | |
| container_id | Schnur | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Ja | |
| Ergebnisse | array | Die vom Code-Interpreter generierten Ausgaben, z. B. Protokolle oder Bilder. Kann NULL sein, wenn keine Ausgaben verfügbar sind. |
Ja | |
| status | enum | Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed |
Ja | |
| Typ | enum | Möglicher Wert: code_interpreter_call |
Ja |
OpenAI.Vergleichsfilter
Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Schlüssel | Schnur | Der Schlüssel für den Vergleich mit dem Wert | Ja | |
| Typ | enum | Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte- eq: entspricht- ne: ungleich- gt:größer als- gte: größer oder gleich- lt:weniger als- lte: kleiner oder gleichMögliche Werte: eq, , ne, gtgte, , , ltlte |
Ja | |
| value | Zeichenfolge oder Zahl oder boolescher Wert | Ja |
OpenAI.CompletionUsage
Nutzungsstatistiken für die Vervollständigungsanforderung
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung | Ja | 0 |
| completion_tokens_details | Objekt | Aufschlüsselung der in einer Vervollständigung verwendeten Tokens. | Nein | |
| └– akzeptierte_Vorhersage_Token | integer | Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der Vorhersage, die in der Vervollständigung angezeigt wurden. |
Nein | 0 |
| └─ audio_tokens | integer | Vom Modell generierte Audioeingabetoken. | Nein | 0 |
| └─ reasoning_tokens | integer | Vom Modell generierte Tokens zur Begründung. | Nein | 0 |
| └– rejected_prediction_tokens | integer | Bei der Verwendung von vorhergesagten Ausgaben die Anzahl der Token in der Vorhersage, die im Abschluss nicht angezeigt wurden. Jedoch werden diese Token wie Begründungstoken für Grenzwerte bei Abrechnung, Ausgabe und Kontextfenster weiterhin zu Summe gezählt. |
Nein | 0 |
| prompt_tokens | integer | Anzahl der Token im Prompt. | Ja | 0 |
| prompt_tokens_details | Objekt | Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. | Nein | |
| └─ audio_tokens | integer | Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. | Nein | 0 |
| └– zwischengespeicherte_Token | integer | Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. | Nein | 0 |
| total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). | Ja | 0 |
OpenAI.CompoundFilter
Kombinieren mehrerer Filter mit and oder or.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| filters | array | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Ja | |
| Typ | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Ja |
OpenAI.ComputerAction
Diskriminator für OpenAI.ComputerAction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
click |
OpenAI.ComputerActionClick |
double_click |
OpenAI.ComputerActionDoubleClick |
drag |
OpenAI.ComputerActionDrag |
move |
OpenAI.ComputerActionMove |
screenshot |
OpenAI.ComputerActionScreenshot |
scroll |
OpenAI.ComputerActionScroll |
type |
OpenAI.ComputerActionTypeKeys |
wait |
OpenAI.ComputerActionWait |
keypress |
OpenAI.ComputerActionKeyPress |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ComputerActionType | Ja |
OpenAI.ComputerActionClick
Eine Klickaktion.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Schaltfläche | enum | Gibt an, welche Maustaste während des Klicks gedrückt wurde.
left, right, wheel, back oder forwardMögliche Werte: left, , rightwheel, , backforward |
Ja | |
| Typ | enum | Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf click festgelegt.Möglicher Wert: click |
Ja | |
| x | integer | Die X-Koordinate, an welcher der Klick aufgetreten ist. | Ja | |
| y | integer | Die Y-Koordinate, an welcher der Klick aufgetreten ist. | Ja |
OpenAI.ComputerActionDoubleClick
Eine Doppelklickaktion
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Gibt den Ereignistyp an. Für eine Doppelklickaktion ist diese Eigenschaft immer auf double_click festgelegt.Möglicher Wert: double_click |
Ja | |
| x | integer | Die X-Koordinate, an welcher der Doppelklick aufgetreten ist. | Ja | |
| y | integer | Die Y-Koordinate, an welcher der Doppelklick aufgetreten ist. | Ja |
OpenAI.ComputerActionDrag
Eine Ziehaktion
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Pfad | array | Ein Array von Koordinaten, die den Pfad der Aktion „Ziehen“ darstellen. Koordinaten werden als ein Array angezeigt von Objekten, z. B. <br>[<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br>]<br> |
Ja | |
| Typ | enum | Gibt den Ereignistyp an. Für eine Ziehaktion ist diese Eigenschaft immer auf drag festgelegt.Möglicher Wert: drag |
Ja |
OpenAI.ComputerActionKeyPress
Eine Sammlung von Tastenanschlägen, die das Modell durchführen möchte.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| keys | array | Die Kombination von Tasten, die das Modell gedrückt haben möchte. Dies ist ein Array von Zeichenfolgen, die jeweils eine Taste darstellen. |
Ja | |
| Typ | enum | Gibt den Ereignistyp an. Bei einer Tastendruckaktion ist diese Eigenschaft immer auf keypress festgelegt.Möglicher Wert: keypress |
Ja |
OpenAI.ComputerActionMove
Aktion zur Änderung der Mauszeigerposition
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Gibt den Ereignistyp an. Für das Verschieben ist diese Eigenschaft immer auf move festgelegt.Möglicher Wert: move |
Ja | |
| x | integer | Die X-Koordinate, zu der verschoben werden soll. | Ja | |
| y | integer | Die Y-Koordinate, zu der verschoben werden soll. | Ja |
OpenAI.ComputerActionScreenshot
Screenshotaktion
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf screenshot festgelegt.Möglicher Wert: screenshot |
Ja |
OpenAI.ComputerActionScroll
Eine Scrollaktion
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| scroll_x | integer | Der horizontale Scrollabstand | Ja | |
| scroll_y | integer | Der vertikale Scrollabstand | Ja | |
| Typ | enum | Gibt den Ereignistyp an. Für eine Scrollaktion ist diese Eigenschaft immer auf scroll festgelegt.Möglicher Wert: scroll |
Ja | |
| x | integer | Die X-Koordinate, an der das Scrollen erfolgt ist | Ja | |
| y | integer | Die Y-Koordinate, an welcher der Bildlauf aufgetreten ist. | Ja |
OpenAI.ComputerActionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | screenshotclickdouble_clickscrolltypewaitkeypressdragmove |
OpenAI.ComputerActionTypeKeys
Eine Aktion, die in Text eingegeben werden soll.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Der einzugebende Text. | Ja | |
| Typ | enum | Gibt den Ereignistyp an. Für eine Typaktion ist diese Eigenschaft immer auf type festgelegt.Möglicher Wert: type |
Ja |
OpenAI.ComputerActionWait
Eine Warteaktion.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf wait festgelegt.Möglicher Wert: wait |
Ja |
OpenAI.ComputerToolCallItemParam
Ein Toolaufruf eines von einem Computer verwendeten Tools
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Ja | ||
| call_id | Schnur | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird | Ja | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computer-Anruf. | Ja | |
| Typ | enum | Möglicher Wert: computer_call |
Ja |
OpenAI.ComputerToolCallItemResource
Ein Toolaufruf eines von einem Computer verwendeten Tools
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Ja | ||
| call_id | Schnur | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird | Ja | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computer-Anruf. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Möglicher Wert: computer_call |
Ja |
OpenAI.ComputerToolCallOutputItemOutput
Diskriminator for OpenAI.ComputerToolCallOutputItemOutput
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
computer_screenshot |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ComputerToolCallOutputItemOutputType | Ein Computer-Screenshot, das mit dem Computernutzungstool verwendet wird. | Ja |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datei-ID | Schnur | Nein | ||
| image_url | Schnur | Nein | ||
| Typ | enum | Möglicher Wert: computer_screenshot |
Ja |
OpenAI.ComputerToolCallOutputItemOutputType
Ein Computer-Screenshot, das mit dem Computernutzungstool verwendet wird.
| Eigentum | Wert |
|---|---|
| Beschreibung | Ein Computer-Screenshot, das mit dem Computernutzungstool verwendet wird. |
| Typ | Schnur |
| Werte | computer_screenshot |
OpenAI.ComputerToolCallOutputItemParam
Die Ausgabe eines Computertoolaufrufs
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitsprüfungen, die von der entwickelnden Person bestätigt wurden |
Nein | |
| call_id | Schnur | Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. | Ja | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Ja | ||
| Typ | enum | Möglicher Wert: computer_call_output |
Ja |
OpenAI.ComputerToolCallOutputItemResource
Die Ausgabe eines Computertoolaufrufs
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitsprüfungen, die von der entwickelnden Person bestätigt wurden |
Nein | |
| call_id | Schnur | Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. | Ja | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Ja | ||
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Möglicher Wert: computer_call_output |
Ja |
OpenAI.ComputerToolCallSafetyCheck
Eine ausstehende Sicherheitsüberprüfung für den Computeranruf.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | Schnur | Der Typ der ausstehenden Sicherheitsüberprüfung. | Ja | |
| id | Schnur | Die ID der ausstehenden Sicherheitsprüfung | Ja | |
| Nachricht | Schnur | Details zur ausstehenden Sicherheitsüberprüfung. | Ja |
OpenAI.ComputerUsePreviewTool
Ein Tool, das einen virtuellen Computer steuert.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Anzeigehöhe | integer | Die Höhe der Computeranzeige. | Ja | |
| Bildschirmbreite | integer | Die Breite der Computeranzeige. | Ja | |
| Umwelt | enum | Der Typ der zu steuernden Computerumgebung. Mögliche Werte: windows, , maclinux, , ubuntubrowser |
Ja | |
| Typ | enum | Der Typ des Tools zur Computernutzung. Immer computer_use_preview.Möglicher Wert: computer_use_preview |
Ja |
OpenAI.Coordinate
Ein X/Y-Koordinatenpaar, z. B. { x: 100, y: 200 }.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| x | integer | Die X-Koordinate. | Ja | |
| y | integer | Die Y-Koordinate. | Ja |
OpenAI.CreateEmbeddingResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Die Liste der vom Modell generierten Einbettungen. | Ja | |
| Modell | Schnur | Der Name des Modells, das zum Generieren der Einbettung verwendet wurde. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „list“ lautet. Möglicher Wert: list |
Ja | |
| usage | Objekt | Die Nutzungsinformationen für die Anforderung. | Ja | |
| └– prompt_tokens | integer | Die Anzahl der vom Prompt verwendeten Token. | Nein | |
| └─ total_tokens | integer | Die Gesamtanzahl der von der Anforderung verwendeten Token. | Nein |
OpenAI.CreateEvalItem
Eine Chatnachricht, aus der der "Prompt" oder der Kontext besteht. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder OpenAI.EvalItemContent | Texteingaben für das Modell – können Vorlagenzeichenfolgen enthalten. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoderdeveloper.Mögliche Werte: user, , assistant, systemdeveloper |
Ja | |
| Typ | enum | Der Typ der Nachrichteneingabe. Immer message.Möglicher Wert: message |
Nein |
OpenAI.CreateEvalRunRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Datenquelle | Objekt | Ja | ||
| └– Typ | OpenAI.EvalRunDataSourceType | Nein | ||
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Name der Ausführung | Nein |
OpenAI.CreateFineTuningJobRequest
Gültige Modelle:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Hyperparameter | Objekt | Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert ist nun zugunsten von method veraltet und sollte unter dem Parameter method übergeben werden. |
Nein | |
| └- batch_size | enum | Möglicher Wert: auto |
Nein | |
| └– Lernraten-Multiplikator | enum | Möglicher Wert: auto |
Nein | |
| └– n_epochs | enum | Möglicher Wert: auto |
Nein | |
| Integrationen | array | Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Methode | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | Nein | |
| Modell | string (siehe gültige Modelle unten) | Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden unterstützten Modelle verwenden. |
Ja | |
| Seed | integer | Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden. Wenn Sie keinen Seed angeben, wird einer für Sie generiert. |
Nein | |
| suffix | Schnur | Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird. Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen. |
Nein | Nichts |
| Trainingsdatei | Schnur | Die ID einer hochgeladenen Datei, die Trainingsdaten enthält. Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.Je nachdem, ob das Modell den Chat verwendet, oder ob die Feinabstimmungsmethode das Format Vorlieben verwendet, sollte sich der Inhalt der Datei unterscheiden. Weitere Details finden Sie in der Feinabstimmungsanleitung. |
Ja | |
| Validierungsdatei | Schnur | Die ID einer hochgeladenen Datei, die Validierungsdaten enthält. Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs- Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden. Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein. Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.Weitere Details finden Sie in der Feinabstimmungsanleitung. |
Nein |
OpenAI.CreateFineTuningJobRequestIntegration
Diskriminator für OpenAI.CreateFineTuningJobRequestIntegration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
wandb |
OpenAI.CreateFineTuningJobRequestWandbIntegration |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | string (siehe gültige Modelle unten) | Ja |
OpenAI.CreateFineTuningJobRequestWandbIntegration
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: wandb |
Ja | |
| wandb | Objekt | Ja | ||
| └– Entität | Schnur | Nein | ||
| └– Name | Schnur | Nein | ||
| └- Projekt | Schnur | Nein | ||
| └- Tags | array | Nein |
OpenAI.CreateVectorStoreFileBatchRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Nein | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
Nein | |
| Datei-IDs | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Ja |
OpenAI.CreateVectorStoreFileRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Nein | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. |
Nein | |
| Datei-ID | Schnur | Eine Datei-ID, die vom Vektorspeicher verwendet werden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Ja |
OpenAI.CreateVectorStoreRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| chunking_strategy | Objekt | Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400. |
Nein | |
| └– statisch | OpenAI.StaticChunkingStrategy | Nein | ||
| └– Typ | enum | Immer static.Möglicher Wert: static |
Nein | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| Datei-IDs | array | Eine Liste mit Datei-IDs, die vom Vektorspeicher verwendet werden sollen. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Der Name des Vektorspeichers. | Nein |
OpenAI.DeleteFileResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: file |
Ja |
OpenAI.DeleteVectorStoreFileResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: vector_store.file.deleted |
Ja |
OpenAI.DeleteVectorStoreResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: vector_store.deleted |
Ja |
OpenAI.Embedding
Stellt einen Einbettungsvektor dar, der vom Einbettungsendpunkt zurückgegeben wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| embedding | Array oder Zeichenfolge | Ja | ||
| index | integer | Der Index der Einbettung in der Liste der Einbettungen | Ja | |
| Objekt | enum | Der Objekttyp, der immer „embedding“ ist. Möglicher Wert: embedding |
Ja |
OpenAI.Eval
Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Beispiel:
- Verbessern der Qualität meines Chatbots
- Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
- Überprüfen Sie, ob o4-mini bei meinem Anwendungsfall besser ist als gpt-4o
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. | Ja | |
| Datenquellenkonfiguration | Objekt | Ja | ||
| └– Typ | OpenAI.EvalDataSourceConfigType | Nein | ||
| id | Schnur | Eindeutiger Bezeichner für die Auswertung. | Ja | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| name | Schnur | Der Name der Auswertung. | Ja | |
| Objekt | enum | Der Objekttyp. Möglicher Wert: eval |
Ja | |
| Testkriterien | array | Eine Liste der Testkriterien. | Ja | Nichts |
OpenAI.EvalApiError
Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | Schnur | Der Fehlercode. | Ja | |
| Nachricht | Schnur | Die Fehlermeldung. | Ja |
OpenAI.EvalCompletionsRunDataSourceParams
Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabenachrichten | Objekt | Nein | ||
| └─ item_reference | Schnur | Ein Verweis auf eine Variable im Namespace item. d.h., „item.input_trajectory“ |
Nein | |
| └- Vorlage | array | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. |
Nein | |
| └– Typ | enum | Der Typ der Eingabemeldungen. Immer item_reference.Möglicher Wert: item_reference |
Nein | |
| Modell | Schnur | Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). | Nein | |
| Parameter für Stichprobennahme | AzureEvalAPICompletionsSamplingParams | Nein | ||
| Quelle | Objekt | Ja | ||
| └– Inhalt | array | Der Inhalt der JSONL-Datei. | Nein | |
| └─ created_after | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. | Nein | |
| └─ created_before | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. | Nein | |
| └─ id | Schnur | Der Bezeichner der Datei. | Nein | |
| └– Grenzwert | integer | Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └─ Modell | Schnur | Ein optionales Modell, nach dem gefiltert wird (z. B. "gpt-4o"). | Nein | |
| └– Typ | enum | Der Quelltyp. Immer stored_completions.Möglicher Wert: stored_completions |
Nein | |
| Typ | enum | Der Typ der Ausführungsdatenquelle. Immer completions.Möglicher Wert: completions |
Ja |
OpenAI.EvalCustomDataSourceConfigParams
Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird. Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
- Welche Daten beim Erstellen einer Ausführung erforderlich sind
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Beispielschema einfügen | boolean | Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) | Nein | Falsch |
| Artikel-Schema | Objekt | Das JSON-Schema für jede Zeile in der Datenquelle. | Ja | |
| Typ | enum | Der Typ der Datenquelle. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.EvalCustomDataSourceConfigResource
Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt.
Das Antwortschema definiert die Form der Daten, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
- Welche Daten beim Erstellen einer Ausführung erforderlich sind
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| schema | Objekt | Das JSON-Schema für die Laufdatenquellenelemente. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| Typ | enum | Der Typ der Datenquelle. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.EvalDataSourceConfigParams
Diskriminator für OpenAI.EvalDataSourceConfigParams
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigParams |
logs |
OpenAI.EvalLogsDataSourceConfigParams |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigParams |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.EvalDataSourceConfigType | Ja |
OpenAI.EvalDataSourceConfigResource
Diskriminator für OpenAI.EvalDataSourceConfigResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigResource |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigResource |
logs |
OpenAI.EvalLogsDataSourceConfigResource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.EvalDataSourceConfigType | Ja |
OpenAI.EvalDataSourceConfigType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | customlogsstored_completions |
OpenAI.EvalGraderLabelModelParams
Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | array | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. |
Ja | |
| Bezeichnungen | array | Die Bezeichnungen, die verwendet werden, um jedes Element in der Auswertung zu klassifizieren. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| passing_labels | array | Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein | Ja | |
| Typ | enum | Der Objekttyp, der immer label_model ist.Möglicher Wert: label_model |
Ja |
OpenAI.EvalGraderLabelModelResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | array | Ja | ||
| Bezeichnungen | array | Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| passing_labels | array | Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein | Ja | |
| Typ | enum | Der Objekttyp, der immer label_model ist.Möglicher Wert: label_model |
Ja |
OpenAI.EvalGraderParams
Diskriminator für OpenAI.EvalGraderParams
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelParams |
string_check |
OpenAI.EvalGraderStringCheckParams |
text_similarity |
OpenAI.EvalGraderTextSimilarityParams |
python |
OpenAI.EvalGraderPythonParams |
score_model |
OpenAI.EvalGraderScoreModelParams |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.GraderType | Ja |
OpenAI.EvalGraderPythonParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Nein | |
| Quelle | Schnur | Der Quellcode des Python-Skripts. | Ja | |
| Typ | enum | Der Objekttyp, der immer python ist.Möglicher Wert: python |
Ja |
OpenAI.EvalGraderPythonResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Nein | |
| Quelle | Schnur | Der Quellcode des Python-Skripts. | Ja | |
| Typ | enum | Der Objekttyp, der immer python ist.Möglicher Wert: python |
Ja |
OpenAI.EvalGraderResource
Diskriminator für OpenAI.EvalGraderResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelResource |
text_similarity |
OpenAI.EvalGraderTextSimilarityResource |
python |
OpenAI.EvalGraderPythonResource |
score_model |
OpenAI.EvalGraderScoreModelResource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.GraderType | Ja |
OpenAI.EvalGraderScoreModelParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Nein | |
| range | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| Parameter für Stichprobennahme | Die Samplingparameter für das Modell. | Nein | ||
| Typ | enum | Der Objekttyp, der immer score_model ist.Möglicher Wert: score_model |
Ja |
OpenAI.EvalGraderScoreModelResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Nein | |
| range | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| Parameter für Stichprobennahme | Die Samplingparameter für das Modell. | Nein | ||
| Typ | enum | Der Objekttyp, der immer score_model ist.Möglicher Wert: score_model |
Ja |
OpenAI.EvalGraderStringCheckParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | Schnur | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Ja | |
| Referenz | Schnur | Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Typ | enum | Der Objekttyp, der immer string_check ist.Möglicher Wert: string_check |
Ja |
OpenAI.EvalGraderTextSimilarityParams
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Ja | |
| Eingabe | Schnur | Der Text, der benotet wird. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Ja | |
| Referenz | Schnur | Der Text, für die Bewertung. | Ja | |
| Typ | enum | Typ des Bewerters (Graders) Möglicher Wert: text_similarity |
Ja |
OpenAI.EvalGraderTextSimilarityResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Ja | |
| Eingabe | Schnur | Der Text, der benotet wird. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Ja | |
| Referenz | Schnur | Der Text, für die Bewertung. | Ja | |
| Typ | enum | Typ des Bewerters (Graders) Möglicher Wert: text_similarity |
Ja |
OpenAI.EvalItem
Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Objekt | Ja | ||
| └– Typ | OpenAI.EvalItemContentType | Nein | ||
| Rolle (role) | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoderdeveloper.Mögliche Werte: user, , assistant, systemdeveloper |
Ja | |
| Typ | enum | Der Typ der Nachrichteneingabe. Immer message.Möglicher Wert: message |
Nein |
OpenAI.EvalItemContent
Diskriminator für OpenAI.EvalItemContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
input_text |
OpenAI.EvalItemContentInputText |
output_text |
OpenAI.EvalItemContentOutputText |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.EvalItemContentType | Ja |
OpenAI.EvalItemContentInputText
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: input_text |
Ja |
OpenAI.EvalItemContentOutputText
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: output_text |
Ja |
OpenAI.EvalItemContentType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | input_textoutput_text |
OpenAI.EvalJsonlRunDataSourceParams
Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Quelle | Objekt | Ja | ||
| └– Inhalt | array | Der Inhalt der JSONL-Datei. | Nein | |
| └─ id | Schnur | Der Bezeichner der Datei. | Nein | |
| └– Typ | enum | Der Typ der JSONL-Quelle. Immer file_id.Möglicher Wert: file_id |
Nein | |
| Typ | enum | Der Typ der Datenquelle. Immer jsonl.Möglicher Wert: jsonl |
Ja |
OpenAI.EvalList
Ein Objekt, das eine Liste von Evals darstellt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ein Array von Eval-Objekten. | Ja | |
| first_id | Schnur | Der Bezeichner der ersten Auswertung im Datenarray. | Ja | |
| has_more | boolean | Gibt an, ob weitere Evals verfügbar sind. | Ja | |
| last_id | Schnur | Der Bezeichner der letzten Auswertung im Datenarray. | Ja | |
| Objekt | enum | Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt. Möglicher Wert: list |
Ja |
OpenAI.EvalLogsDataSourceConfigParams
Eine Datenquellenkonfiguration, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt.
Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Typ | enum | Der Typ der Datenquelle. Immer logs.Möglicher Wert: logs |
Ja |
OpenAI.EvalLogsDataSourceConfigResource
Eine LogsDataSourceConfig, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt.
Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Evals verfügbar sind.
item und sample sind bei dieser Datenquellenkonfiguration beide definiert.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| schema | Objekt | Das JSON-Schema für die Laufdatenquellenelemente. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| Typ | enum | Der Typ der Datenquelle. Immer logs.Möglicher Wert: logs |
Ja |
OpenAI.EvalResponsesRunDataSourceParams
Ein ResponsesRunDataSource-Objekt, das die Konfiguration einer Modellstichprobenentnahme beschreibt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabenachrichten | Objekt | Nein | ||
| └─ item_reference | Schnur | Ein Verweis auf eine Variable im Namespace item. d. h. „item.name“ |
Nein | |
| └- Vorlage | array | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. |
Nein | |
| └– Typ | enum | Der Typ der Eingabemeldungen. Immer item_reference.Möglicher Wert: item_reference |
Nein | |
| Modell | Schnur | Der Name des Modells, das zum Generieren von Vervollständigungen verwendet werden soll (z. B. „o3-mini“). | Nein | |
| Parameter für Stichprobennahme | AzureEvalAPIResponseSamplingParams | Nein | ||
| Quelle | Objekt | Ja | ||
| └– Inhalt | array | Der Inhalt der JSONL-Datei. | Nein | |
| └─ created_after | integer | Nur Elemente einschließen, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └─ created_before | integer | Nur Elemente einschließen, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └─ id | Schnur | Der Bezeichner der Datei. | Nein | |
| └– instructions_search | Schnur | Optionale Zeichenfolge zum Durchsuchen des Felds „instructions“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └─ Modell | Schnur | Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └─ reasoning_effort | OpenAI.ReasoningEffort | Optionaler Parameter „Begründungsaufwand“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └– Temperatur | number | Die Temperatur für die Stichprobenentnahme. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └- Werkzeuge | array | Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └– top_p | number | Kernstichprobenentnahmeparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| └– Typ | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Möglicher Wert: responses |
Nein | |
| └– Benutzer | array | Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| Typ | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Möglicher Wert: responses |
Ja |
OpenAI.EvalRun
Ein Schema, das eine Auswertungsausführung darstellt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. | Ja | |
| Datenquelle | Objekt | Ja | ||
| └– Typ | OpenAI.EvalRunDataSourceType | Nein | ||
| Fehler | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | Ja | |
| eval_id | Schnur | Bezeichner der zugeordneten Auswertung | Ja | |
| id | Schnur | Eindeutiger Bezeichner für die Auswertungsausführung | Ja | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| Modell | Schnur | Das Modell, das ausgewertet wird, falls zutreffend. | Ja | |
| name | Schnur | Name der Auswertungsausführung | Ja | |
| Objekt | enum | Der Typ des Objekts. Immer „eval.run“ Möglicher Wert: eval.run |
Ja | |
| pro_Modell_Nutzung | array | Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. | Ja | |
| Ergebnisse_pro_Testkriterien | array | Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. | Ja | |
| report_url | Schnur | URL zum gerenderten Bericht der Auswertungsausführung im Dashboard auf der Benutzeroberfläche | Ja | |
| Ergebnisanzahl | Objekt | Indikatoren, die die Ergebnisse der Auswertungsausführung zusammenfassen. | Ja | |
| └– fehler | integer | Anzahl der Ausgabeelemente, die zu einem Fehler geführt haben. | Nein | |
| └– fehlgeschlagen | integer | Anzahl der Ausgabeelemente, die die Auswertung nicht bestanden haben. | Nein | |
| └─ passed | integer | Anzahl der Ausgabeelemente, die die Auswertung bestanden haben. | Nein | |
| └– Gesamtsumme | integer | Gesamtanzahl der ausgeführten Ausgabeelemente. | Nein | |
| status | Schnur | Status der Auswertungsausführung | Ja |
OpenAI.EvalRunDataContentSource
Diskriminator für OpenAI.EvalRunDataContentSource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_id |
OpenAI.EvalRunFileIdDataContentSource |
stored_completions |
OpenAI.EvalRunStoredCompletionsDataContentSource |
responses |
OpenAI.EvalRunResponsesDataContentSource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.EvalRunDataContentSourceType | Ja |
OpenAI.EvalRunDataContentSourceType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | file_idfile_contentstored_completionsresponses |
OpenAI.EvalRunDataSourceCompletionsResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: completions |
Ja |
OpenAI.EvalRunDataSourceJsonlResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: jsonl |
Ja |
OpenAI.EvalRunDataSourceParams
Diskriminator für OpenAI.EvalRunDataSourceParams
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
jsonl |
OpenAI.EvalJsonlRunDataSourceParams |
completions |
OpenAI.EvalCompletionsRunDataSourceParams |
responses |
OpenAI.EvalResponsesRunDataSourceParams |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.EvalRunDataSourceType | Ja |
OpenAI.EvalRunDataSourceResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.EvalRunDataSourceType | Ja |
OpenAI.EvalRunDataSourceResponsesResource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: responses |
Ja |
OpenAI.EvalRunDataSourceType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | jsonlcompletionsresponses |
OpenAI.EvalRunFileContentDataContentSource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt der JSONL-Datei. | Ja | |
| Typ | enum | Der Typ der JSONL-Quelle. Immer file_content.Möglicher Wert: file_content |
Ja |
OpenAI.EvalRunFileIdDataContentSource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| id | Schnur | Der Bezeichner der Datei. | Ja | |
| Typ | enum | Der Typ der JSONL-Quelle. Immer file_id.Möglicher Wert: file_id |
Ja |
OpenAI.EvalRunList
Objekt, das eine Liste der Ausführungen einer Auswertung darstellt
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Array von Objekten der Auswertungsausführung | Ja | |
| first_id | Schnur | Der Bezeichner des ersten Eval-Vorgangs im Datenarray. | Ja | |
| has_more | boolean | Gibt an, ob weitere Evals verfügbar sind. | Ja | |
| last_id | Schnur | Bezeichner der letzten Auswertungsausführung im Datenarray | Ja | |
| Objekt | enum | Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt. Möglicher Wert: list |
Ja |
OpenAI.EvalRunOutputItem
Ein Schema, das ein Ausgabeelement einer Auswertungsausführung darstellt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. | Ja | |
| Datenquellenobjekt | Objekt | Details zum Datenquellelement der Eingabe | Ja | |
| datasource_item_id | integer | Der Bezeichner für das Datenquellenelement. | Ja | |
| eval_id | Schnur | Der Bezeichner der Auswertungsgruppe. | Ja | |
| id | Schnur | Eindeutiger Bezeichner für das Ausgabeelement der Auswertungsausführung | Ja | |
| Objekt | enum | Der Typ des Objekts. Immer „eval.run.output_item“ Möglicher Wert: eval.run.output_item |
Ja | |
| Ergebnisse | array | Eine Liste der Ergebnisse aus der Auswertungsausführung. | Ja | |
| run_id | Schnur | Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. | Ja | |
| Beispiel | Objekt | Ein Beispiel, das die Eingabe und Ausgabe des Auswertungslaufs enthält. | Ja | |
| └– Fehler | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | Nein | |
| └─ finish_reason | Schnur | Der Grund, warum die Beispielgenerierung abgeschlossen wurde. | Nein | |
| └– Eingabe | array | Ein Array von Eingabemeldungen. | Nein | |
| └─ max_completion_tokens | integer | Die maximale Anzahl von Token, die für die Fertigstellung verwendet werden dürfen. | Nein | |
| └─ Modell | Schnur | Das Modell, das zum Generieren des Beispiels verwendet wird. | Nein | |
| └─ output | array | Ein Array von Ausgabemeldungen. | Nein | |
| └─ seed | integer | Der zum Generieren der Stichprobe verwendete Seed | Nein | |
| └– Temperatur | number | Die verwendete Probenahmetemperatur. | Nein | |
| └– top_p | number | Der top_p Wert, der für das Sampling verwendet wird. | Nein | |
| └– Nutzung | Objekt | Details zur Nutzung von Tokens für das Beispiel. | Nein | |
| └– zwischengespeicherte_Token | integer | Die Anzahl der Token, die aus dem Cache abgerufen wurden. | Nein | |
| └─ completion_tokens | integer | Die Anzahl der generierten Abschlusstoken. | Nein | |
| └– prompt_tokens | integer | Die Anzahl der verwendeten Prompt-Token. | Nein | |
| └─ total_tokens | integer | Die Gesamtzahl der verwendeten Token. | Nein | |
| status | Schnur | Status der Auswertungsausführung | Ja |
OpenAI.EvalRunOutputItemList
Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Array von Ausgabeelementobjekten einer Auswertungsausführung | Ja | |
| first_id | Schnur | Bezeichner des ersten Ausgabeelements einer Auswertungsausführung im Datenarray | Ja | |
| has_more | boolean | Gibt an, ob weitere Ausgabeelemente für die Auswertungsausführung verfügbar sind | Ja | |
| last_id | Schnur | Der Bezeichner des letzten Ausgabeelements des Eval-Durchlaufs im Datenarray. | Ja | |
| Objekt | enum | Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt. Möglicher Wert: list |
Ja |
OpenAI.EvalRunResponsesDataContentSource
Ein EvalResponsesSource-Objekt, das die Datenquellenkonfiguration einer Ausführung beschreibt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| created_after | integer | Nur Elemente einschließen, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| erstellt_vor | integer | Nur Elemente einschließen, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| instructions_search | Schnur | Optionale Zeichenfolge zum Durchsuchen des Felds „instructions“. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Modell | Schnur | Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| Denkanstrengung | Objekt |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| Temperatur | number | Die Temperatur für die Stichprobenentnahme. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| Werkzeuge | array | Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| top_p | number | Kernstichprobenentnahmeparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein | |
| Typ | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Möglicher Wert: responses |
Ja | |
| Nutzer | array | Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | Nein |
OpenAI.EvalRunStoredCompletionsDataContentSource
Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| created_after | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. | Nein | |
| erstellt_vor | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. | Nein | |
| limit | integer | Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| Modell | Schnur | Ein optionales Modell, nach dem gefiltert wird (z. B. "gpt-4o"). | Nein | |
| Typ | enum | Der Quelltyp. Immer stored_completions.Möglicher Wert: stored_completions |
Ja |
OpenAI.EvalStoredCompletionsDataSourceConfigParams
Veraltet zugunsten von LogsDataSourceConfig.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | Objekt | Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. | Nein | |
| Typ | enum | Der Typ der Datenquelle. Immer stored_completions.Möglicher Wert: stored_completions |
Ja |
OpenAI.EvalStoredCompletionsDataSourceConfigResource
Veraltet zugunsten von LogsDataSourceConfig.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| schema | Objekt | Das JSON-Schema für die Laufdatenquellenelemente. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| Typ | enum | Der Typ der Datenquelle. Immer stored_completions.Möglicher Wert: stored_completions |
Ja |
OpenAI.FileSearchTool
Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| filters | Objekt | Nein | ||
| max_anzahl_ergebnisse | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. | Nein | |
| Ranglistenoptionen | Objekt | Nein | ||
| └– Ranker | enum | Der Rangfolger, der für die Dateisuche verwendet werden soll. Mögliche Werte: auto, default-2024-11-15 |
Nein | |
| └─ Punktschwelle | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. | Nein | |
| Typ | enum | Der Typ des Dateisuchtools. Immer file_search.Möglicher Wert: file_search |
Ja | |
| vector_store_ids | array | Die IDs der zu durchsuchenden Vektorspeicher. | Ja |
OpenAI.FileSearchToolCallItemParam
Die Ergebnisse eines Aufrufs des Dateisuchtools.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| queries | array | Die zum Suchen nach Dateien verwendeten Abfragen. | Ja | |
| Ergebnisse | array | Die Ergebnisse des Aufrufs des Dateisuchtools. | Nein | |
| Typ | enum | Möglicher Wert: file_search_call |
Ja |
OpenAI.FileSearchToolCallItemResource
Die Ergebnisse eines Aufrufs des Dateisuchtools.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| queries | array | Die zum Suchen nach Dateien verwendeten Abfragen. | Ja | |
| Ergebnisse | array | Die Ergebnisse des Aufrufs des Dateisuchtools. | Nein | |
| status | enum | Der Status des Aufrufs des Dateisuchtools.
in_progress, searching, incomplete oder failed,Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Ja | |
| Typ | enum | Möglicher Wert: file_search_call |
Ja |
OpenAI.Filters
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| filters | array | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Ja | |
| Schlüssel | Schnur | Der Schlüssel für den Vergleich mit dem Wert | Ja | |
| Typ | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Ja | |
| value | Zeichenfolge oder Zahl oder boolescher Wert | Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. | Ja |
OpenAI.FineTuneDPOHyperparameters
Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Batch-Größe | enum | Möglicher Wert: auto |
Nein | |
| Beta | enum | Möglicher Wert: auto |
Nein | |
| Lernratenmultiplikator | enum | Möglicher Wert: auto |
Nein | |
| n_epochs | enum | Möglicher Wert: auto |
Nein |
OpenAI.FineTuneDPOMethod
Konfiguration für die DPO-Feinabstimmungsmethode.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Hyperparameter | OpenAI.FineTuneDPOHyperparameters | Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. | Nein |
OpenAI.FineTuneMethod
Die Methode, die für die Feinabstimmung verwendet wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| dpo | OpenAI.FineTuneDPOMethod | Konfiguration für die DPO-Feinabstimmungsmethode. | Nein | |
| Verstärkung | AzureFineTuneReinforcementMethod | Nein | ||
| Überwacht | OpenAI.FineTuneSupervisedMethod | Konfiguration für die überwachte Feinabstimmungsmethode. | Nein | |
| Typ | enum | Der Typ der Methode. Ist entweder supervised, dpo oder reinforcement.Mögliche Werte: supervised, , dporeinforcement |
Ja |
OpenAI.FineTuneReinforcementHyperparameters
Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Batch-Größe | enum | Möglicher Wert: auto |
Nein | |
| compute_multiplier | enum | Möglicher Wert: auto |
Nein | |
| eval_interval | enum | Möglicher Wert: auto |
Nein | |
| eval_samples | enum | Möglicher Wert: auto |
Nein | |
| Lernratenmultiplikator | enum | Möglicher Wert: auto |
Nein | |
| n_epochs | enum | Möglicher Wert: auto |
Nein | |
| Denkanstrengung | enum | Ebene des Begründungsaufwands. Mögliche Werte: default, , low, mediumhigh |
Nein |
OpenAI.FineTuneSupervisedHyperparameters
Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Batch-Größe | enum | Möglicher Wert: auto |
Nein | |
| Lernratenmultiplikator | enum | Möglicher Wert: auto |
Nein | |
| n_epochs | enum | Möglicher Wert: auto |
Nein |
OpenAI.FineTuneSupervisedMethod
Konfiguration für die überwachte Feinabstimmungsmethode.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Hyperparameter | OpenAI.FineTuneSupervisedHyperparameters | Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. | Nein |
OpenAI.FineTuningIntegration
Diskriminator für OpenAI.FineTuningIntegration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
wandb |
OpenAI.FineTuningIntegrationWandb |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | string (siehe gültige Modelle unten) | Ja |
OpenAI.FineTuningIntegrationWandb
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird Möglicher Wert: wandb |
Ja | |
| wandb | Objekt | Die Einstellungen für Ihre Integration mit Gewichtungen und Trends. Diese Nutzdaten geben das Projekt an, zu dem Metriken gesendet werden. Optional können Sie einen expliziten Anzeigenamen für Ihre Ausführung festlegen, Tags hinzufügen zu Ihrer Ausführung, und eine Standardentität (Team, Benutzername usw.) festlegen, die Ihrer Ausführung zugeordnet werden soll. |
Ja | |
| └– Entität | Schnur | Die Entität, die für die Ausführung verwendet werden soll. Auf diese Weise können Sie das Team oder den Benutzernamen des WandB-Benutzers festlegen, den Sie mit der Ausführung verknüpft haben möchten. Wenn nicht festgelegt, wird die Standardentität für den registrierten WandB-API-Schlüssel verwendet. |
Nein | |
| └– Name | Schnur | Ein Anzeigename, der für die Ausführung festgelegt werden soll. Wenn nicht festgelegt, verwenden wir die Auftrags-ID als Namen. | Nein | |
| └- Projekt | Schnur | Der Name des Projekts, unter dem die neue Ausführung erstellt wird. | Nein | |
| └- Tags | array | Eine Liste der Tags, die der neu erstellten Ausführung angefügt werden sollen. Diese Tags werden direkt an WandB weitergeleitet. Einige Standardtags werden von OpenAI generiert: „openai/finetune“, „openai/{base-model}“, „openai/{ftjob-abcdef}“. |
Nein |
OpenAI.FineTuningJob
Das Objekt fine_tuning.job stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. | Ja | |
| Fehler | Objekt | Bei Feinabstimmungsaufträgen mit Status failed, wird dies weitere Informationen zur Ursache des Fehlers enthalten. |
Ja | |
| └– Code | Schnur | Ein computerlesbarer Fehlercode. | Nein | |
| └– Nachricht | Schnur | Eine für Menschen lesbare Fehlermeldung. | Nein | |
| └- param | Schnur | Der Parameter, der ungültig war, in der Regel training_file oder validation_file. Dieses Feld ist null, wenn der Fehler nicht parameterspezifisch war. |
Nein | |
| geschätzte Fertigstellung | integer | Unix-Zeitstempel (in Sekunden) für die Vervollständigung des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Feinabstimmungsauftrag nicht ausgeführt wird. | Nein | |
| fine_tuned_model | Schnur | Der Name des fein abgestimmten Modells, das erstellt wird. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. | Ja | |
| finished_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschlusszeitpunkt des Feinabstimmungsauftrags. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. | Ja | |
| Hyperparameter | Objekt | Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert wird nur zurückgegeben, wenn supervised Aufträge ausgeführt werden. |
Ja | |
| └- batch_size | enum | Möglicher Wert: auto |
Nein | |
| └– Lernraten-Multiplikator | enum | Möglicher Wert: auto |
Nein | |
| └– n_epochs | enum | Möglicher Wert: auto |
Nein | |
| id | Schnur | Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Integrationen | array | Eine Liste der Integrationen, die für diesen Feinabstimmungsauftrag aktiviert werden sollen. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| Methode | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | Nein | |
| Modell | Schnur | Das Basismodell, das fein abgestimmt wird. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „fine_tuning.job“ ist. Möglicher Wert: fine_tuning.job |
Ja | |
| organization_id | Schnur | Die Organisation, die den Feinabstimmungsauftrag besitzt. | Ja | |
| Ergebnisdateien | array | Die kompilierten Ergebnisdatei-ID(s) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. | Ja | |
| Seed | integer | Der für den Optimierungsauftrag verwendete Seed | Ja | |
| status | enum | Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, queued, running, succeeded, failed oder cancelled sein kann.Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled |
Ja | |
| trainierte Token | integer | Die Gesamtzahl der verrechenbaren Tokens, die durch diesen Feinabstimmungsauftrag verarbeitet wurden. Der Wert wird NULL sein, wenn der Optimierungsauftrag noch ausgeführt wird. | Ja | |
| Trainingsdatei | Schnur | Die Datei-ID, die für das Training verwendet wird. Sie können die Trainingsdaten mit der Datein-API abrufen. | Ja | |
| user_provided_suffix | Schnur | Das beschreibende Suffix, das auf den Auftrag angewendet wurde, wie in der Auftragserstellungsanforderung angegeben. | Nein | |
| Validierungsdatei | Schnur | Die zur Überprüfung verwendete Datei-ID. Sie können die Überprüfungsergebnisse mit der Datein-API abrufen. | Ja |
OpenAI.FineTuningJobCheckpoint
Das Objekt fine_tuning.job.checkpoint stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. | Ja | |
| fine_tuned_model_checkpoint | Schnur | Der Name des erstellten fein abgestimmten Prüfpunktmodells. | Ja | |
| fine_tuning_job_id | Schnur | Name des Optimierungsauftrags, aus dem dieser Prüfpunkt erstellt wurde | Ja | |
| id | Schnur | Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Metriken | Objekt | Metriken bei der Schrittnummer während des Feinabstimmungsauftrags. | Ja | |
| └─ full_valid_loss | number | Nein | ||
| └─ full_valid_mean_token_accuracy | number | Nein | ||
| └– Schritt | number | Nein | ||
| └– train_loss | number | Nein | ||
| └─ train_mean_token_accuracy | number | Nein | ||
| └─ valid_loss | number | Nein | ||
| └– valid_mean_token_accuracy | number | Nein | ||
| Objekt | enum | Der Objekttyp, der immer „fine_tuning.job.checkpoint“ ist. Möglicher Wert: fine_tuning.job.checkpoint |
Ja | |
| Schrittnummer | integer | Die Schrittnummer, bei der der Prüfpunkt erstellt wurde. | Ja |
OpenAI.FineTuningJobEvent
Ereignisobjekt des Feinabstimmungsauftrags
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. | Ja | |
| Daten | Die dem Ereignis zugeordneten Daten. | Nein | ||
| id | Schnur | Der Objektbezeichner. | Ja | |
| level | enum | Der Protokolliergrad des Ereignisses. Mögliche Werte: info, , warnerror |
Ja | |
| Nachricht | Schnur | Die Meldung des Ereignisses. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „fine_tuning.job.event“ ist. Möglicher Wert: fine_tuning.job.event |
Ja | |
| Typ | enum | Den Typ des Ereignisses Mögliche Werte: message, metrics |
Nein |
OpenAI.FunctionObject
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | Nein | |
| name | Schnur | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
| Parameter | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Beispiele finden Sie in der Anleitung, und die Dokumentation zum Format finden Sie in der JSON-Schemareferenz. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
Nein | ||
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf „true“ festgelegt ist, folgt das Modell dem genauen Schema, das im Feld parameters definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wenn stricttrue ist. Erfahren Sie mehr über strukturierte Ausgaben im Funktionsaufrufhandbuch. |
Nein | Falsch |
OpenAI.FunctionTool
Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann. Erfahren Sie mehr über den Funktionsaufruf.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. | Nein | |
| name | Schnur | Der Name der aufzurufenden Funktion. | Ja | |
| Parameter | Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. | Ja | ||
| strict | boolean | Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standardwert: true. |
Ja | |
| Typ | enum | Der Typ des Funktionstools. Immer function.Möglicher Wert: function |
Ja |
OpenAI.FunctionToolCallItemParam
Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie in der Funktionsaufrufanleitung.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| name | Schnur | Der Name der auszuführenden Funktion. | Ja | |
| Typ | enum | Möglicher Wert: function_call |
Ja |
OpenAI.FunctionToolCallItemResource
Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie in der Funktionsaufrufanleitung.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| name | Schnur | Der Name der auszuführenden Funktion. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Möglicher Wert: function_call |
Ja |
OpenAI.FunctionToolCallOutputItemParam
Die Ausgabe eines Funktionstoolaufrufs
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| output | Schnur | Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. | Ja | |
| Typ | enum | Möglicher Wert: function_call_output |
Ja |
OpenAI.FunctionToolCallOutputItemResource
Die Ausgabe eines Funktionstoolaufrufs
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| output | Schnur | Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Möglicher Wert: function_call_output |
Ja |
OpenAI.Grader
Diskriminator für OpenAI.Grader
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
label_model |
OpenAI.GraderLabelModel |
text_similarity |
OpenAI.GraderTextSimilarity |
python |
OpenAI.GraderPython |
score_model |
OpenAI.GraderScoreModel |
multi |
OpenAI.GraderMulti |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.GraderType | Ja |
OpenAI.GraderLabelModel
Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | array | Ja | ||
| Bezeichnungen | array | Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| passing_labels | array | Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein | Ja | |
| Typ | enum | Der Objekttyp, der immer label_model ist.Möglicher Wert: label_model |
Ja |
OpenAI.GraderMulti
Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Bewerter, um eine einzelne Bewertung zu erzeugen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Ja | |
| Bewerter | Objekt | Ja | ||
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Ja |
OpenAI.GraderPython
Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Quelle | Schnur | Der Quellcode des Python-Skripts. | Ja | |
| Typ | enum | Der Objekttyp, der immer python ist.Möglicher Wert: python |
Ja |
OpenAI.GraderScoreModel
Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| range | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| Parameter für Stichprobennahme | Die Samplingparameter für das Modell. | Nein | ||
| Typ | enum | Der Objekttyp, der immer score_model ist.Möglicher Wert: score_model |
Ja |
OpenAI.GraderStringCheck
Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Eingabe | Schnur | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Ja | |
| Referenz | Schnur | Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Typ | enum | Der Objekttyp, der immer string_check ist.Möglicher Wert: string_check |
Ja |
OpenAI.GraderTextSimilarity
Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Ja | |
| Eingabe | Schnur | Der Text, der benotet wird. | Ja | |
| name | Schnur | Name des Bewerters (Graders) | Ja | |
| Referenz | Schnur | Der Text, für die Bewertung. | Ja | |
| Typ | enum | Typ des Bewerters (Graders) Möglicher Wert: text_similarity |
Ja |
OpenAI.GraderType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | string_checktext_similarityscore_modellabel_modelpythonmulti |
OpenAI.ImageGenTool
Ein Tool, das Bilder mithilfe eines Modells wie gpt-image-1-Serie generiert.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| background | enum | Hintergrundtyp für das generierte Bild.
transparent,opaque oder auto. Standardwert: auto.Mögliche Werte: transparent, , opaqueauto |
Nein | |
| input_image_mask | Objekt | Optionale Maske für die Bildbearbeitung. Enthält image_url(Zeichenfolge, optional) und file_id (Zeichenfolge, optional). |
Nein | |
| └– file_id | Schnur | Datei-ID für das Maskenbild. | Nein | |
| └– image_url | Schnur | Base64-codiertes Maskenbild. | Nein | |
| Modell | enum | Das zu verwendende Modell der Bildgenerierung. Standardwert: gpt-image-1.Möglicher Wert: gpt-image-1 |
Nein | |
| moderation | enum | Moderationsebene für das generierte Bild. Standardwert: auto.Mögliche Werte: auto, low |
Nein | |
| Ausgabekomprimierung | integer | Komprimierungsebene für das Ausgabebild. Standardwert: 100. | Nein | 100 |
| Ausgabeformat | enum | Das Ausgabeformat des generierten Bilds. Einer von png, , webpoderjpeg. Standardwert: png.Mögliche Werte: png, , webpjpeg |
Nein | |
| unvollständige Bilder | integer | Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. | Nein | 0 |
| quality | enum | Die Qualität des generierten Bilds. Einer der folgenden Werte: low, medium, high,oder auto. Standardwert: auto.Mögliche Werte: low, , medium, highauto |
Nein | |
| Größe | enum | Die Größe des generierten Bilds. Einer der folgenden Werte: 1024x1024, 1024x1536,1536x1024 oder auto. Standardwert: auto.Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto |
Nein | |
| Typ | enum | Der Typ des Tools zur Bildgenerierung. Immer image_generation.Möglicher Wert: image_generation |
Ja |
OpenAI.ImageGenToolCallItemParam
Eine vom Modell durchgeführte Anforderung zur Bildgenerierung.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Ergebnis | Schnur | Das generierte Bild, das in base64 codiert ist. | Ja | |
| Typ | enum | Möglicher Wert: image_generation_call |
Ja |
OpenAI.ImageGenToolCallItemResource
Eine vom Modell durchgeführte Anforderung zur Bildgenerierung.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Ergebnis | Schnur | Das generierte Bild, das in base64 codiert ist. | Ja | |
| status | enum | Mögliche Werte: in_progress, , completed, generatingfailed |
Ja | |
| Typ | enum | Möglicher Wert: image_generation_call |
Ja |
OpenAI.ImplicitUserMessage
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array | Ja |
OpenAI.Includable
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
-
code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters. -
computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs -
file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein. -
message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein. -
reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn derstore-Parameter auffalsefestgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
| Eigentum | Wert |
|---|---|
| Beschreibung | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführungin den Aufrufelementen des Code-Interpreter-Tools. - computer_call_output.output.image_url: Einschließen der Bild-URLs aus der Ausgabe des Computeraufrufs.- file_search_call.results: Fügen Sie die Suchergebnisse eindes Aufrufs des Dateisuchtools. - message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.- reasoning.encrypted_content: Enthält eine verschlüsselte Version der Begründungs-Token in Begründungselementausgaben. Dies ermöglicht die Verwendung von Begründungselementen in mehrteiligen Dialogen, wenn die Antworten-API zustandslos genutzt wird (z. B. wenn der store-Parameter auf false gesetzt oder wenn eine Organisation festgelegt istfür das Null-Datenaufbewahrungsprogramm registriert). |
| Typ | Schnur |
| Werte | code_interpreter_call.outputscomputer_call_output.output.image_urlfile_search_call.resultsmessage.input_image.image_urlmessage.output_text.logprobsreasoning.encrypted_content |
OpenAI.ItemContent
Diskriminator für OpenAI.ItemContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
input_audio |
OpenAI.ItemContentInputAudio |
output_audio |
OpenAI.ItemContentOutputAudio |
refusal |
OpenAI.ItemContentRefusal |
input_text |
OpenAI.ItemContentInputText |
input_image |
OpenAI.ItemContentInputImage |
input_file |
OpenAI.ItemContentInputFile |
output_text |
OpenAI.ItemContentOutputText |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ItemContentType | Multimodaler Eingabe- und Ausgabeinhalt. | Ja |
OpenAI.ItemContentInputAudio
Eine Audioeingabe für das Modell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | Schnur | Base64-codierte Audiodaten. | Ja | |
| format | enum | Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 undwav.Mögliche Werte: mp3, wav |
Ja | |
| Typ | enum | Der Typ des Eingabeelements. Immer input_audio.Möglicher Wert: input_audio |
Ja |
OpenAI.ItemContentInputFile
Eine Dateieingabe für das Modell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| file_data | Schnur | Der Inhalt der Datei, die an das Modell gesendet werden soll. | Nein | |
| Datei-ID | Schnur | Die ID der Datei, die an das Modell gesendet werden soll. | Nein | |
| Dateiname | Schnur | Der Name der Datei, die an das Modell gesendet werden soll. | Nein | |
| Typ | enum | Der Typ des Eingabeelements. Immer input_file.Möglicher Wert: input_file |
Ja |
OpenAI.ItemContentInputImage
Eine Bildeingabe für das Modell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| detail | enum | Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low oder auto. Wird standardmäßig auf auto festgelegt.Mögliche Werte: low, , highauto |
Nein | |
| Datei-ID | Schnur | Die ID der Datei, die an das Modell gesendet werden soll. | Nein | |
| image_url | Schnur | Die URL des Bilds, das an das Modell gesendet werden soll. Eine vollqualifizierte URL oder ein vollqualifiziertes base64-codiertes Bild in einer Daten-URL. | Nein | |
| Typ | enum | Der Typ des Eingabeelements. Immer input_image.Möglicher Wert: input_image |
Ja |
OpenAI.ItemContentInputText
Eine Texteingabe für das Modell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Die Texteingabe für das Modell. | Ja | |
| Typ | enum | Der Typ des Eingabeelements. Immer input_text.Möglicher Wert: input_text |
Ja |
OpenAI.ItemContentOutputAudio
Eine Audioausgabe aus dem Modell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | Schnur | Base64-codierte Audiodaten aus dem Modell. | Ja | |
| Transkript | Schnur | Die Transkription der Audiodaten aus dem Modell. | Ja | |
| Typ | enum | Der Typ des Ausgabeaudios. Immer output_audio.Möglicher Wert: output_audio |
Ja |
OpenAI.ItemContentOutputText
Eine Textausgabe aus dem Modell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Anmerkungen | array | Die Anmerkungen der Textausgabe | Ja | |
| logprobs | array | Nein | ||
| Text | Schnur | Die Textausgabe aus dem Modell. | Ja | |
| Typ | enum | Der Typ des Ausgabetexts. Immer output_text.Möglicher Wert: output_text |
Ja |
OpenAI.ItemContentRefusal
Eine Ablehnung des Modells
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Ablehnung | Schnur | Die Erklärung der Ablehnung aus dem Modell. | Ja | |
| Typ | enum | Die Art der Ablehnung. Immer refusal.Möglicher Wert: refusal |
Ja |
OpenAI.ItemContentType
Multimodaler Eingabe- und Ausgabeinhalt.
| Eigentum | Wert |
|---|---|
| Beschreibung | Multimodaler Eingabe- und Ausgabeinhalt. |
| Typ | Schnur |
| Werte | input_textinput_audioinput_imageinput_fileoutput_textoutput_audiorefusal |
OpenAI.ItemParam
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diskriminator für OpenAI.ItemParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemParam |
computer_call |
OpenAI.ComputerToolCallItemParam |
computer_call_output |
OpenAI.ComputerToolCallOutputItemParam |
web_search_call |
OpenAI.WebSearchToolCallItemParam |
function_call |
OpenAI.FunctionToolCallItemParam |
function_call_output |
OpenAI.FunctionToolCallOutputItemParam |
reasoning |
OpenAI.ReasoningItemParam |
item_reference |
OpenAI.ItemReferenceItemParam |
image_generation_call |
OpenAI.ImageGenToolCallItemParam |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemParam |
local_shell_call |
OpenAI.LocalShellToolCallItemParam |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemParam |
mcp_list_tools |
OpenAI.MCPListToolsItemParam |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemParam |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemParam |
mcp_call |
OpenAI.MCPCallItemParam |
message |
OpenAI.ResponsesMessageItemParam |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ItemType | Ja |
OpenAI.ItemReferenceItemParam
Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| id | Schnur | Die vom Dienst stammende ID des zuvor generierten Antwortelements, auf das verwiesen wird. | Ja | |
| Typ | enum | Möglicher Wert: item_reference |
Ja |
OpenAI.ItemResource
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diskriminator für OpenAI.ItemResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemResource |
computer_call |
OpenAI.ComputerToolCallItemResource |
computer_call_output |
OpenAI.ComputerToolCallOutputItemResource |
web_search_call |
OpenAI.WebSearchToolCallItemResource |
function_call |
OpenAI.FunctionToolCallItemResource |
function_call_output |
OpenAI.FunctionToolCallOutputItemResource |
reasoning |
OpenAI.ReasoningItemResource |
image_generation_call |
OpenAI.ImageGenToolCallItemResource |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemResource |
local_shell_call |
OpenAI.LocalShellToolCallItemResource |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemResource |
mcp_list_tools |
OpenAI.MCPListToolsItemResource |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemResource |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemResource |
mcp_call |
OpenAI.MCPCallItemResource |
message |
OpenAI.ResponsesMessageItemResource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| id | Schnur | Ja | ||
| Typ | OpenAI.ItemType | Ja |
OpenAI.ItemType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | messagefile_search_callfunction_callfunction_call_outputcomputer_callcomputer_call_outputweb_search_callreasoningitem_referenceimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ListFineTuningJobCheckpointsResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| first_id | Schnur | Nein | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Nein | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListFineTuningJobEventsResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| has_more | boolean | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListModelsResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListPaginatedFineTuningJobsResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| has_more | boolean | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListVectorStoreFilesFilter
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | in_progresscompletedfailedcancelled |
OpenAI.ListVectorStoreFilesResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListVectorStoresResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.LocalShellExecAction
Führen Sie einen Shellbefehl auf dem Server aus.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| command | array | Der auszuführende Befehl. | Ja | |
| env | Objekt | Umgebungsvariablen, die für den Befehl festgelegt werden sollen. | Ja | |
| timeout_ms | integer | Optionales Zeitlimit in Millisekunden für den Befehl. | Nein | |
| Typ | enum | Der Typ der lokalen Shellaktion. Immer exec.Möglicher Wert: exec |
Ja | |
| user | Schnur | Optionaler Benutzer, als welcher der Befehl ausgeführt werden soll. | Nein | |
| working_directory | Schnur | Optionales Arbeitsverzeichnis, in dem der Befehl ausgeführt werden soll. | Nein |
OpenAI.LocalShellTool
Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Typ des lokalen Shelltools. Immer local_shell.Möglicher Wert: local_shell |
Ja |
OpenAI.LocalShellToolCallItemParam
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| Typ | enum | Möglicher Wert: local_shell_call |
Ja |
OpenAI.LocalShellToolCallItemResource
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| status | enum | Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Möglicher Wert: local_shell_call |
Ja |
OpenAI.LocalShellToolCallOutputItemParam
Die Ausgabe eines Aufrufs eines lokalen Shelltools.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| output | Schnur | Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. | Ja | |
| Typ | enum | Möglicher Wert: local_shell_call_output |
Ja |
OpenAI.LocalShellToolCallOutputItemResource
Die Ausgabe eines Aufrufs eines lokalen Shelltools.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| output | Schnur | Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. | Ja | |
| status | enum | Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Möglicher Wert: local_shell_call_output |
Ja |
OpenAI.Location
Diskriminator für OpenAI.Location
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
approximate |
OpenAI.ApproximateLocation |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.LocationType | Ja |
OpenAI.LocationType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | approximate |
OpenAI.LogProb
Die Protokollwahrscheinlichkeit eines Tokens.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Byte | array | Ja | ||
| logprob | number | Ja | ||
| token | Schnur | Ja | ||
| top_logprobs | array | Ja |
OpenAI.MCPApprovalRequestItemParam
Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Ja | |
| name | Schnur | Der Name des auszuführenden Tools. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, der die Anforderung stellt. | Ja | |
| Typ | enum | Möglicher Wert: mcp_approval_request |
Ja |
OpenAI.MCPApprovalRequestItemResource
Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Ja | |
| name | Schnur | Der Name des auszuführenden Tools. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, der die Anforderung stellt. | Ja | |
| Typ | enum | Möglicher Wert: mcp_approval_request |
Ja |
OpenAI.MCPApprovalResponseItemParam
Eine Antwort auf eine MCP-Genehmigungsanforderung.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| approval_request_id | Schnur | Die ID der Genehmigungsanforderung, die beantwortet wird. | Ja | |
| approve | boolean | Gibt an, ob die Anforderung genehmigt wurde. | Ja | |
| Grund | Schnur | Optionaler Grund für die Entscheidung. | Nein | |
| Typ | enum | Möglicher Wert: mcp_approval_response |
Ja |
OpenAI.MCPApprovalResponseItemResource
Eine Antwort auf eine MCP-Genehmigungsanforderung.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| approval_request_id | Schnur | Die ID der Genehmigungsanforderung, die beantwortet wird. | Ja | |
| approve | boolean | Gibt an, ob die Anforderung genehmigt wurde. | Ja | |
| Grund | Schnur | Optionaler Grund für die Entscheidung. | Nein | |
| Typ | enum | Möglicher Wert: mcp_approval_response |
Ja |
OpenAI.MCPCallItemParam
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Ja | |
| Fehler | Schnur | Der Fehler des Toolaufrufs, falls vorhanden. | Nein | |
| name | Schnur | Der Name des Tools, das ausgeführt wurde. | Ja | |
| output | Schnur | Die Ausgabe vom Toolaufruf. | Nein | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Ja | |
| Typ | enum | Möglicher Wert: mcp_call |
Ja |
OpenAI.MCPCallItemResource
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Ja | |
| Fehler | Schnur | Der Fehler des Toolaufrufs, falls vorhanden. | Nein | |
| name | Schnur | Der Name des Tools, das ausgeführt wurde. | Ja | |
| output | Schnur | Die Ausgabe vom Toolaufruf. | Nein | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Ja | |
| Typ | enum | Möglicher Wert: mcp_call |
Ja |
OpenAI.MCPListToolsItemParam
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Fehler | Schnur | Fehlermeldung, wenn der Server keine Tools auflisten konnte. | Nein | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers. | Ja | |
| Werkzeuge | array | Die auf dem Server verfügbaren Tools. | Ja | |
| Typ | enum | Möglicher Wert: mcp_list_tools |
Ja |
OpenAI.MCPListToolsItemResource
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Fehler | Schnur | Fehlermeldung, wenn der Server keine Tools auflisten konnte. | Nein | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers. | Ja | |
| Werkzeuge | array | Die auf dem Server verfügbaren Tools. | Ja | |
| Typ | enum | Möglicher Wert: mcp_list_tools |
Ja |
OpenAI.MCPListToolsTool
Ein Tool, das auf einem MCP-Server verfügbar ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Anmerkungen | Zusätzliche Anmerkungen zum Tool. | Nein | ||
| Beschreibung | Schnur | Die Beschreibung des Tools. | Nein | |
| input_schema | Das JSON-Schema, das die Eingabe des Tools beschreibt. | Ja | ||
| name | Schnur | Der Name des Tools. | Ja |
OpenAI.MCPTool
Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol).
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erlaubte_Werkzeuge | Objekt | Nein | ||
| └– tool_names | array | Liste der zulässigen Toolnamen. | Nein | |
| Überschriften | Objekt | Optionale HTTP-Header, die an den MCP-Server gesendet werden sollen. Verwendung für die Authentifizierung oder andere Zwecke. |
Nein | |
| Genehmigung erforderlich | Objekt (siehe unten für gültige Modelle) | Geben Sie an, welche Tools des MCP-Servers eine Genehmigung erfordern. | Nein | |
| Serverbeschriftung | Schnur | Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. | Ja | |
| server_url | Schnur | Die URL für den MCP-Server. | Ja | |
| Typ | enum | Der Typ des MCP-Tools. Immer mcp.Möglicher Wert: mcp |
Ja |
OpenAI.MetadataPropertyForRequest
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein |
OpenAI.Model
Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| created | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Modells. | Ja | |
| id | Schnur | Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „model“ lautet. Möglicher Wert: model |
Ja | |
| owned_by | Schnur | Die Organisation, die das Modell besitzt. | Ja |
OpenAI.OtherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Immer other.Möglicher Wert: other |
Ja |
OpenAI.ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Typ: boolesch
OpenAI.Prompt
Verweisen Sie auf eine Promptvorlage und deren Variablen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| id | Schnur | Der eindeutige Bezeichner der zu verwendenden Promptvorlage. | Ja | |
| variables | Objekt | Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
Nein | |
| version | Schnur | Optionale Version der Promptvorlage. | Nein |
OpenAI.RankingOptions
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | enum | Der Rangfolger, der für die Dateisuche verwendet werden soll. Mögliche Werte: auto, default-2024-11-15 |
Nein | |
| score-threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. | Nein |
OpenAI.Reasoning
nur Begründungsmodelle
Konfigurationsoptionen für Begründungsmodelle.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Aufwand | Objekt |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| generate_summary | enum |
Veraltet. , verwenden Sie stattdessen summary.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein |
OpenAI.ReasoningEffort
nur Begründungsmodelle
Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit werden die Werte low, medium und high unterstützt. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
| Eigentum | Wert |
|---|---|
| Beschreibung |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
| Typ | Schnur |
| Werte | lowmediumhigh |
OpenAI.ReasoningItemParam
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in Ihre input an die Antworten-API für die nächsten Gesprächsverläufe einzufügen, wenn Sie den Kontext manuell verwalten.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| encrypted_content | Schnur | Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort mit reasoning.encrypted_content im Parameter include generiert wird. |
Nein | |
| summary | array | Inhalt des Begründungstexts. | Ja | |
| Typ | enum | Möglicher Wert: reasoning |
Ja |
OpenAI.ReasoningItemResource
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in Ihre input an die Antworten-API für die nächsten Gesprächsverläufe einzufügen, wenn Sie den Kontext manuell verwalten.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| encrypted_content | Schnur | Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort mit reasoning.encrypted_content im Parameter include generiert wird. |
Nein | |
| summary | array | Inhalt des Begründungstexts. | Ja | |
| Typ | enum | Möglicher Wert: reasoning |
Ja |
OpenAI.ReasoningItemSummaryPart
Diskriminator für OpenAI.ReasoningItemSummaryPart
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
summary_text |
OpenAI.ReasoningItemSummaryTextPart |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ReasoningItemSummaryPartType | Ja |
OpenAI.ReasoningItemSummaryPartType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | summary_text |
OpenAI.ReasoningItemSummaryTextPart
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Text | Schnur | Ja | ||
| Typ | enum | Möglicher Wert: summary_text |
Ja |
OpenAI.Response
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| Fehler | Objekt | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Ja | |
| └– Code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | Nein | |
| └– Nachricht | Schnur | Eine für Menschen lesbare Beschreibung des Fehlers. | Nein | |
| id | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Ja | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| instructions | Zeichenfolge oder Array | Ja | ||
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| output_text | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| Parallele Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| previous_response_id | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| prompt | Objekt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └─ id | Schnur | Der eindeutige Bezeichner der zu verwendenden Promptvorlage. | Nein | |
| └- Variablen | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten zum Ersetzen von Variablen in ihrem Prompt. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
Nein | |
| └─ version | Schnur | Optionale Version der Promptvorlage. | Nein | |
| Begründung | Objekt |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └– Aufwand | OpenAI.ReasoningEffort |
nur Begründungsmodelle Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit werden die Werte low, medium und high unterstützt. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. |
Nein | |
| └– generate_summary | enum |
Veraltet. , verwenden Sie stattdessen summary.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| └– Zusammenfassung | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann Folgendes sein: Nützlich für das Debuggen und Verstehen des Begründungsprozesses des Modells. Einer von auto, concise oder detailed.Mögliche Werte: auto, , concisedetailed |
Nein | |
| status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Ja | |
| Text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| Toolauswahl | Objekt | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines odervon Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. |
Nein | |
| └– Typ | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | Nein | |
| Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Ja | |
| Kürzung | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| usage | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| user | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Ja |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Wird ausgegeben, wenn ein partieller Codeschnipsel vom Code-Interpreter gestreamt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| delta | Schnur | Der partielle Codeschnipsel, der vom Code-Interpreter gestreamt wird. | Ja | |
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.code_interpreter_call_code.delta.Möglicher Wert: response.code_interpreter_call_code.delta |
Ja |
OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
Wird ausgegeben, wenn der Codeschnipsel vom Code-Interpreter abgeschlossen wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | Schnur | Die endgültige Codeschnipselausgabe des Code-Interpreters. | Ja | |
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code abgeschlossen wird. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.code_interpreter_call_code.done.Möglicher Wert: response.code_interpreter_call_code.done |
Ja |
OpenAI.ResponseCodeInterpreterCallCompletedEvent
Wird ausgegeben, wenn der Aufruf des Code-Interpreters abgeschlossen wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters abgeschlossen wird. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.code_interpreter_call.completed.Möglicher Wert: response.code_interpreter_call.completed |
Ja |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Wird ausgegeben, wenn ein Aufruf des Code-Interpreters in Bearbeitung ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters in Arbeit ist. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.code_interpreter_call.in_progress.Möglicher Wert: response.code_interpreter_call.in_progress |
Ja |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Wird ausgegeben, wenn der Code-Interpreter den Codeschnipsel aktiv interpretiert.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code-Interpreter Code interpretiert. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.code_interpreter_call.interpreting.Möglicher Wert: response.code_interpreter_call.interpreting |
Ja |
OpenAI.ResponseCompletedEvent
Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| response | Objekt | Ja | ||
| └– Hintergrund | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Nein | |
| └– Fehler | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Antwort | Nein | |
| └─ incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Nein | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| └– Anweisungen | Zeichenfolge oder Array | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| └– max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| └─ max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Nein | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Nein | |
| └─ Ausgabentext | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| └– vorherige_Antwort_ID | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └– Begründung | OpenAI.Reasoning |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| └─ text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| └– top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| └– top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| └─ truncation | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| └– Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.completed.Möglicher Wert: response.completed |
Ja |
OpenAI.ResponseContentPartAddedEvent
Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des hinzugefügten Inhaltsteils. | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Ja | |
| Teil | Objekt | Ja | ||
| └– Typ | OpenAI.ItemContentType | Multimodaler Eingabe- und Ausgabeinhalt. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.content_part.added.Möglicher Wert: response.content_part.added |
Ja |
OpenAI.ResponseContentPartDoneEvent
Wird ausgegeben, wenn ein Inhaltsteil verarbeitet ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, der verarbeitet wurde. | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Ja | |
| Teil | Objekt | Ja | ||
| └– Typ | OpenAI.ItemContentType | Multimodaler Eingabe- und Ausgabeinhalt. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.content_part.done.Möglicher Wert: response.content_part.done |
Ja |
OpenAI.ResponseCreatedEvent
Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| response | Objekt | Ja | ||
| └– Hintergrund | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Nein | |
| └– Fehler | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Antwort | Nein | |
| └─ incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Nein | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| └– Anweisungen | Zeichenfolge oder Array | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| └– max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| └─ max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Nein | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Nein | |
| └─ Ausgabentext | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| └– vorherige_Antwort_ID | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └– Begründung | OpenAI.Reasoning |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| └─ text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| └– top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| └– top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| └─ truncation | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| └– Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.created.Möglicher Wert: response.created |
Ja |
OpenAI.ResponseError
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | Ja | |
| Nachricht | Schnur | Eine für Menschen lesbare Beschreibung des Fehlers. | Ja |
OpenAI.ResponseErrorCode
Der Fehlercode für die Antwort.
| Eigentum | Wert |
|---|---|
| Beschreibung | Der Fehlercode für die Antwort. |
| Typ | Schnur |
| Werte | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Wird ausgegeben, wenn ein Fehler auftritt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| code | Schnur | Der Fehlercode. | Ja | |
| Nachricht | Schnur | Die Fehlermeldung. | Ja | |
| param | Schnur | Der Fehlerparameter. | Ja | |
| Typ | enum | Typ des Ereignisses Immer error.Möglicher Wert: error |
Ja |
OpenAI.ResponseFailedEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| response | Objekt | Ja | ||
| └– Hintergrund | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Nein | |
| └– Fehler | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Antwort | Nein | |
| └─ incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Nein | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| └– Anweisungen | Zeichenfolge oder Array | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| └– max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| └─ max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Nein | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Nein | |
| └─ Ausgabentext | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| └– vorherige_Antwort_ID | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └– Begründung | OpenAI.Reasoning |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| └─ text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| └– top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| └– top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| └─ truncation | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| └– Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.failed.Möglicher Wert: response.failed |
Ja |
OpenAI.ResponseFileSearchCallCompletedEvent
Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.file_search_call.completed.Möglicher Wert: response.file_search_call.completed |
Ja |
OpenAI.ResponseFileSearchCallInProgressEvent
Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.file_search_call.in_progress.Möglicher Wert: response.file_search_call.in_progress |
Ja |
OpenAI.ResponseFileSearchCallSearchingEvent
Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde | Ja | |
| output_index | integer | Der Index des Ausgabeelements, nach dem der Dateisuchaufruf sucht. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.file_search_call.searching.Möglicher Wert: response.file_search_call.searching |
Ja |
OpenAI.ResponseFormat
Diskriminator für OpenAI.ResponseFormat
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
text |
OpenAI.ResponseFormatText |
json_object |
OpenAI.ResponseFormatJsonObject |
json_schema |
OpenAI.ResponseFormatJsonSchema |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Mögliche Werte: text, , json_objectjson_schema |
Ja |
OpenAI.ResponseFormatJsonObject
Antwortformat des JSON-Objekts. Eine ältere Methode zum Generieren von JSON-Antworten.
Die Verwendung von json_schema wird für Modelle empfohlen, die dies unterstützen. Beachten Sie, dass das Modell keinen JSON-Code ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Typ des zu definierenden Antwortformats. Immer json_object.Möglicher Wert: json_object |
Ja |
OpenAI.ResponseFormatJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu Strukturierten Ausgaben.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| JSON-Schema | Objekt | Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. | Ja | |
| └– Beschreibung | Schnur | Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell bestimmt wird, wie im Format geantwortet werden soll. |
Nein | |
| └– Name | Schnur | Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen). |
Nein | |
| └- Schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Nein | |
| └– streng | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema. im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wennstrict ist true Weitere Informationen finden Sie in im Leitfaden für strukturierteAusgaben. |
Nein | Falsch |
| Typ | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Möglicher Wert: json_schema |
Ja |
OpenAI.ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Typ: Objekt
OpenAI.ResponseFormatText
Standardantwortformat. Wird verwendet, um Textantworten zu generieren.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Typ des zu definierenden Antwortformats. Immer text.Möglicher Wert: text |
Ja |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| delta | Schnur | Das hinzugefügte Argumentdelta des Funktionsaufrufs | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem das Delta der Funktionsaufrufargumente hinzugefügt wird. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.function_call_arguments.delta.Möglicher Wert: response.function_call_arguments.delta |
Ja |
OpenAI.ResponseFunctionCallArgumentsDoneEvent
Wird ausgegeben, wenn Funktionsaufrufargumente abgeschlossen werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Schnur | Die Funktionsaufrufargumente. | Ja | |
| item_id | Schnur | Die ID des Elements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements. | Ja | |
| Typ | enum | Möglicher Wert: response.function_call_arguments.done |
Ja |
OpenAI.ResponseImageGenCallCompletedEvent
Wird ausgegeben, wenn ein Aufruf des Bildgenerierungstools abgeschlossen ist und das endgültige Bild verfügbar ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.image_generation_call.completed”. Möglicher Wert: response.image_generation_call.completed |
Ja |
OpenAI.ResponseImageGenCallGeneratingEvent
Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild generiert (Zwischenzustand).
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.image_generation_call.generating. Möglicher Wert: response.image_generation_call.generating |
Ja |
OpenAI.ResponseImageGenCallInProgressEvent
Wird ausgegeben, wenn ein Aufruf des Bildgenerierungstools ausgeführt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.image_generation_call.in_progress”. Möglicher Wert: response.image_generation_call.in_progress |
Ja |
OpenAI.ResponseImageGenCallPartialImageEvent
Wird ausgegeben, wenn ein Teilbild während des Streamings der Bildgenerierung verfügbar ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| partial_image_b64 | Schnur | Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. | Ja | |
| partial_image_index | integer | 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.image_generation_call.partial_image”. Möglicher Wert: response.image_generation_call.partial_image |
Ja |
OpenAI.ResponseInProgressEvent
Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| response | Objekt | Ja | ||
| └– Hintergrund | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Nein | |
| └– Fehler | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Antwort | Nein | |
| └─ incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Nein | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| └– Anweisungen | Zeichenfolge oder Array | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| └– max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| └─ max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Nein | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Nein | |
| └─ Ausgabentext | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| └– vorherige_Antwort_ID | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └– Begründung | OpenAI.Reasoning |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| └─ text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| └– top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| └– top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| └─ truncation | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| └– Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.in_progress.Möglicher Wert: response.in_progress |
Ja |
OpenAI.ResponseIncompleteEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort als unvollständig abgeschlossen wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| response | Objekt | Ja | ||
| └– Hintergrund | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Nein | |
| └– Fehler | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Antwort | Nein | |
| └─ incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Nein | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| └– Anweisungen | Zeichenfolge oder Array | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| └– max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| └─ max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Nein | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Nein | |
| └─ Ausgabentext | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| └– vorherige_Antwort_ID | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └– Begründung | OpenAI.Reasoning |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| └─ text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| └– top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| └– top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| └─ truncation | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| └– Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein | |
| Typ | enum | Typ des Ereignisses Immer response.incomplete.Möglicher Wert: response.incomplete |
Ja |
OpenAI.ResponseItemList
Eine Liste der Antwortelemente.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Daten | array | Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. | Ja | |
| first_id | Schnur | Die ID des ersten Elements in der Liste. | Ja | |
| has_more | boolean | Gibt an, ob weitere Elemente verfügbar sind. | Ja | |
| last_id | Schnur | Die ID des letzten Elements in der Liste. | Ja | |
| Objekt | enum | Der Typ des zurückgegebenen Objekts muss list sein.Möglicher Wert: list |
Ja |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| delta | Die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf. | Ja | ||
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen MCP-Toolaufrufelements. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.mcp_call.arguments_delta”. Möglicher Wert: response.mcp_call.arguments_delta |
Ja |
OpenAI.ResponseMCPCallArgumentsDoneEvent
Wird ausgegeben, wenn die Argumente für einen MCP-Toolaufruf abgeschlossen werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| arguments | Die abgeschlossenen Argumente für den MCP-Toolaufruf. | Ja | ||
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen MCP-Toolaufrufelements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.mcp_call.arguments_done”. Möglicher Wert: response.mcp_call.arguments_done |
Ja |
OpenAI.ResponseMCPCallCompletedEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf erfolgreich abgeschlossen wurde.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Typ des Ereignisses Immer „response.mcp_call.completed“. Möglicher Wert: response.mcp_call.completed |
Ja |
OpenAI.ResponseMCPCallFailedEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Typ des Ereignisses Immer „response.mcp_call.failed“. Möglicher Wert: response.mcp_call.failed |
Ja |
OpenAI.ResponseMCPCallInProgressEvent
Wird ausgegeben, wenn sich ein MCP-Toolaufruf in Bearbeitung befindet.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des sich in Bearbeitung befindlichen MCP-Toolaufrufelements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.mcp_call.in_progress”. Möglicher Wert: response.mcp_call.in_progress |
Ja |
OpenAI.ResponseMCPListToolsCompletedEvent
Wird ausgegeben, wenn die Liste der verfügbaren MCP-Tools erfolgreich abgerufen wurde.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Typ des Ereignisses Immer „response.mcp_list_tools.completed”. Möglicher Wert: response.mcp_list_tools.completed |
Ja |
OpenAI.ResponseMCPListToolsFailedEvent
Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools aufzulisten, fehlgeschlagen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Typ des Ereignisses Immer „response.mcp_list_tools.failed”. Möglicher Wert: response.mcp_list_tools.failed |
Ja |
OpenAI.ResponseMCPListToolsInProgressEvent
Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Typ des Ereignisses Immer „response.mcp_list_tools.in_progress”. Möglicher Wert: response.mcp_list_tools.in_progress |
Ja |
OpenAI.ResponseOutputItemAddedEvent
Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item | Objekt | Inhaltselement, das zum Generieren einer Antwort verwendet wird. | Ja | |
| └─ id | Schnur | Nein | ||
| └– Typ | OpenAI.ItemType | Nein | ||
| output_index | integer | Der Index des Ausgabeelements, das hinzugefügt wurde. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.output_item.added.Möglicher Wert: response.output_item.added |
Ja |
OpenAI.ResponseOutputItemDoneEvent
Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item | Objekt | Inhaltselement, das zum Generieren einer Antwort verwendet wird. | Ja | |
| └─ id | Schnur | Nein | ||
| └– Typ | OpenAI.ItemType | Nein | ||
| output_index | integer | Der Index des Ausgabeelements, das als erledigt markiert wurde. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.output_item.done.Möglicher Wert: response.output_item.done |
Ja |
OpenAI.ResponsePromptVariables
Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.
Typ: Objekt
OpenAI.ResponseQueuedEvent
Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| response | Objekt | Ja | ||
| └– Hintergrund | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
Nein | Falsch |
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Nein | |
| └– Fehler | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Nein | |
| └─ id | Schnur | Eindeutiger Bezeichner für diese Antwort | Nein | |
| └─ incomplete_details | Objekt | Details dazu, warum die Antwort unvollständig ist. | Nein | |
| └– Grund | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
Nein | |
| └– Anweisungen | Zeichenfolge oder Array | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei der Verwendung zusammen mit previous_response_id werden die Anweisungen aus einer vorherigenAntwort nicht auf die nächste Antwort übertragen. Dies macht es einfach, System- oder Entwicklernachrichten in neuen Antworten auszutauschen. |
Nein | |
| └– max_output_tokens | integer | Eine obere Grenze für die Anzahl der Tokens, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetokens und Begründungstokens. | Nein | |
| └─ max_tool_calls | integer | Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | Nein | |
| └- Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Nein | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. – Die Länge und Reihenfolge der Elemente im Array output ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Nein | |
| └─ Ausgabentext | Schnur | SDK-exklusive Hilfseigenschaft, die die aggregierte Textausgabe enthält aus allen output_text Elementen im Array output, falls vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
Nein | |
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Nein | Richtig |
| └– vorherige_Antwort_ID | Schnur | Die eindeutige ID der vorherigen Antwort an das Modell. Verwenden Sie dies, um mehrteilige Unterhaltungen zu erstellen. |
Nein | |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. |
Nein | |
| └– Begründung | OpenAI.Reasoning |
nur Begründungsmodelle Konfigurationsoptionen für Begründungsmodelle. |
Nein | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | number | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| └─ text | Objekt | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: Strukturierte Ausgaben |
Nein | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | Nein | ||
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) verwendet werden sollen beim Generieren einer Antwort. Sehen Sie sich den Parameter tools an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | array | Ein Array von Tools, die das Modell aufrufen kann, während es eine Antwort generiert. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Parameter tool_choice festlegen.Sie können die beiden folgenden Kategorien von Tools bereitstellen: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, welche die Die Funktionen des Modells, z. B. Websuche oder Dateisuche. |
Nein | |
| └– top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | Nein | |
| └– top_p | number | Eine Alternative zur Stichprobenentnahme mit Temperatur, die als Kernprobenentnahme bezeichnet wird, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Also bedeutet 0,1, dass nur die Token mit der höchsten Wahrscheinlichkeitsmasse von 10 % umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| └─ truncation | enum | Die Kürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und vorheriger Antwortendie Größe des Kontextfensters des Modells überschreitet, schneidet die Antwort ab, sodass sie ins Kontextfenster passt, indem es Eingabeelemente in der Mitte der Unterhaltung weglässt. - disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße überschreitetfür ein Modell, tritt bei der Anforderung der Fehler 400 auf. Mögliche Werte: auto, disabled |
Nein | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Token insgesamt. |
Nein | |
| └– Benutzer | Schnur | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | Nein | |
| Typ | enum | Typ des Ereignisses Immer „response.queued”. Möglicher Wert: response.queued |
Ja |
OpenAI.ResponseReasoningDeltaEvent
Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungsinhalt vorhanden ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Begründungsinhaltsteils innerhalb des Ausgabeelements. | Ja | |
| delta | Die partielle Aktualisierung des Inhalts der Begründung. | Ja | ||
| item_id | Schnur | Der eindeutige Bezeichner des Artikels, dessen Argumentation aktualisiert wird. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.reasoning.delta”. Möglicher Wert: response.reasoning.delta |
Ja |
OpenAI.ResponseReasoningDoneEvent
Wird ausgegeben, wenn der Begründungsinhalt für ein Element abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Begründungsinhaltsteils innerhalb des Ausgabeelements. | Ja | |
| item_id | Schnur | Der eindeutige Bezeichner des Elements, für das die Begründung abgeschlossen ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| Text | Schnur | Der abschließende Text für die Begründung. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.reasoning.delta”. Möglicher Wert: response.reasoning.done |
Ja |
OpenAI.ResponseReasoningSummaryDeltaEvent
Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Begründungszusammenfassungsinhalt vorhanden ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| delta | Die partielle Aktualisierung des Inhalts für die Begründungszusammenfassung. | Ja | ||
| item_id | Schnur | Der eindeutige Bezeichner des Elements, für das die Begründungszusammenfassung aktualisiert wird. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| summary_index | integer | Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.reasoning_summary.delta”. Möglicher Wert: response.reasoning_summary.delta |
Ja |
OpenAI.ResponseReasoningSummaryDoneEvent
Wird ausgegeben, wenn der Inhalt der Begründungszusammenfassung für ein Element abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des Elements, für das die Begründungszusammenfassung abgeschlossen ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| summary_index | integer | Der Index des Zusammenfassungsabschnitts innerhalb des Ausgabeelements. | Ja | |
| Text | Schnur | Der abschließende Zusammenfassungstext für die Begründung. | Ja | |
| Typ | enum | Typ des Ereignisses Immer „response.reasoning_summary.done”. Möglicher Wert: response.reasoning_summary.done |
Ja |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Wird ausgegeben, wenn der Zusammenfassungsbegründung ein neuer Teil hinzugefügt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. | Ja | |
| Teil | Objekt | Ja | ||
| └– Typ | OpenAI.ReasoningItemSummaryPartType | Nein | ||
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.reasoning_summary_part.added.Möglicher Wert: response.reasoning_summary_part.added |
Ja |
OpenAI.ResponseReasoningSummaryPartDoneEvent
Wird ausgegeben, wenn ein Zusammenfassungsteil für die Begründung abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. | Ja | |
| Teil | Objekt | Ja | ||
| └– Typ | OpenAI.ReasoningItemSummaryPartType | Nein | ||
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.reasoning_summary_part.done.Möglicher Wert: response.reasoning_summary_part.done |
Ja |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Wird ausgegeben, wenn ein Delta zu einem Begründungszusammenfassungstext hinzugefügt wird.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| delta | Schnur | Das Textdelta, das der Zusammenfassung hinzugefügt wurde. | Ja | |
| item_id | Schnur | Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. | Ja | |
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.reasoning_summary_text.delta.Möglicher Wert: response.reasoning_summary_text.delta |
Ja |
OpenAI.ResponseReasoningSummaryTextDoneEvent
Wird ausgegeben, wenn ein Grundübersichtstext abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Elements, dem dieser Zusammenfassungstext zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungstext zugeordnet ist. | Ja | |
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Begründungszusammenfassung. | Ja | |
| Text | Schnur | Der vollständige Text der vollständigen Begründungszusammenfassung. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.reasoning_summary_text.done.Möglicher Wert: response.reasoning_summary_text.done |
Ja |
OpenAI.ResponseRefusalDeltaEvent
Wird ausgegeben, wenn ein teilweiser Ablehnungstext vorhanden ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. | Ja | |
| delta | Schnur | Der Ablehnungstext, der hinzugefügt wird. | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.refusal.delta.Möglicher Wert: response.refusal.delta |
Ja |
OpenAI.ResponseRefusalDoneEvent
Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dass der Ablehnungstext abgeschlossen wird | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dass der Ablehnungstext abgeschlossen wird | Ja | |
| Ablehnung | Schnur | Der Ablehnungstext, der abgeschlossen ist. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.refusal.done.Möglicher Wert: response.refusal.done |
Ja |
OpenAI.ResponseStreamEvent
Diskriminator für OpenAI.ResponseStreamEvent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| sequence_number | integer | Die Sequenznummer für dieses Ereignis. | Ja | |
| Typ | OpenAI.ResponseStreamEventType | Ja |
OpenAI.ResponseStreamEventType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | response.audio.deltaresponse.audio.doneresponse.audio_transcript.deltaresponse.audio_transcript.doneresponse.code_interpreter_call_code.deltaresponse.code_interpreter_call_code.doneresponse.code_interpreter_call.completedresponse.code_interpreter_call.in_progressresponse.code_interpreter_call.interpretingresponse.completedresponse.content_part.addedresponse.content_part.doneresponse.createderrorresponse.file_search_call.completedresponse.file_search_call.in_progressresponse.file_search_call.searchingresponse.function_call_arguments.deltaresponse.function_call_arguments.doneresponse.in_progressresponse.failedresponse.incompleteresponse.output_item.addedresponse.output_item.doneresponse.refusal.deltaresponse.refusal.doneresponse.output_text.annotation.addedresponse.output_text.deltaresponse.output_text.doneresponse.reasoning_summary_part.addedresponse.reasoning_summary_part.doneresponse.reasoning_summary_text.deltaresponse.reasoning_summary_text.doneresponse.web_search_call.completedresponse.web_search_call.in_progressresponse.web_search_call.searchingresponse.image_generation_call.completedresponse.image_generation_call.generatingresponse.image_generation_call.in_progressresponse.image_generation_call.partial_imageresponse.mcp_call.arguments_deltaresponse.mcp_call.arguments_doneresponse.mcp_call.completedresponse.mcp_call.failedresponse.mcp_call.in_progressresponse.mcp_list_tools.completedresponse.mcp_list_tools.failedresponse.mcp_list_tools.in_progressresponse.queuedresponse.reasoning.deltaresponse.reasoning.doneresponse.reasoning_summary.deltaresponse.reasoning_summary.done |
OpenAI.ResponseTextDeltaEvent
Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde | Ja | |
| delta | Schnur | Das Textdelta, das hinzugefügt wurde | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. | Ja | |
| Verschleierung | Schnur | Ein Feld zufälliger Zeichen, das durch Streamverschleierung eingeführt wird. Streamverschleierung ist ein Mechanismus, der bestimmte Seitenkanalangriffe abschwächt. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.output_text.delta.Möglicher Wert: response.output_text.delta |
Ja |
OpenAI.ResponseTextDoneEvent
Wird ausgegeben, wenn der Textinhalt abgeschlossen ist.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dass der Textinhalt abgeschlossen wird | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, für das der Textinhalt abgeschlossen wird. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dass der Textinhalt abgeschlossen wird | Ja | |
| Text | Schnur | Der Textinhalt, der abgeschlossen ist. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.output_text.done.Möglicher Wert: response.output_text.done |
Ja |
OpenAI.ResponseTextFormatConfiguration
Diskriminator für OpenAI.ResponseTextFormatConfiguration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
text |
OpenAI.ResponseTextFormatConfigurationText |
json_object |
OpenAI.ResponseTextFormatConfigurationJsonObject |
json_schema |
OpenAI.ResponseTextFormatConfigurationJsonSchema |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ResponseTextFormatConfigurationType | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,was sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, derstellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schemawird für Modelle bevorzugt, die es unterstützen. |
Ja |
OpenAI.ResponseTextFormatConfigurationJsonObject
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: json_object |
Ja |
OpenAI.ResponseTextFormatConfigurationJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Weitere Informationen zu Strukturierten Ausgaben.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell bestimmt wird, wie im Format geantwortet werden soll. |
Nein | |
| name | Schnur | Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen). |
Ja | |
| schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genau definierten Schema. im Feld schema definiert ist. Nur eine Teilmenge des JSON-Schemas wird unterstützt, wennstrict ist true Weitere Informationen finden Sie in im Leitfaden für strukturierteAusgaben. |
Nein | Falsch |
| Typ | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Möglicher Wert: json_schema |
Ja |
OpenAI.ResponseTextFormatConfigurationText
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: text |
Ja |
OpenAI.ResponseTextFormatConfigurationType
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
| Eigentum | Wert |
|---|---|
| Beschreibung | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. |
Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. | | Typ | string | | Werte | textjson_schemajson_object |
OpenAI.ResponseUsage
Stellt Tokenverbrauchsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die insgesamt verwendeten Token dar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | Ja | |
| input_tokens_details | Objekt | Eine detaillierte Aufschlüsselung der Eingabetoken. | Ja | |
| └– zwischengespeicherte_Token | integer | Die Anzahl der Token, die aus dem Cache abgerufen wurden. Weitere Informationen zum Zwischenspeichern von Prompts. |
Nein | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | Ja | |
| output_tokens_details | Objekt | Eine detaillierte Aufschlüsselung der Ausgabetoken. | Ja | |
| └─ reasoning_tokens | integer | Die Anzahl der Begründungstoken | Nein | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | Ja |
OpenAI.ResponseWebSearchCallCompletedEvent
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.web_search_call.completed.Möglicher Wert: response.web_search_call.completed |
Ja |
OpenAI.ResponseWebSearchCallInProgressEvent
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.web_search_call.in_progress.Möglicher Wert: response.web_search_call.in_progress |
Ja |
OpenAI.ResponseWebSearchCallSearchingEvent
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| item_id | Schnur | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Ja | |
| Typ | enum | Typ des Ereignisses Immer response.web_search_call.searching.Möglicher Wert: response.web_search_call.searching |
Ja |
OpenAI.ResponsesAssistantMessageItemParam
Ein Nachrichtenparameterelement mit der Rolle assistant.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer assistant ist.Möglicher Wert: assistant |
Ja |
OpenAI.ResponsesAssistantMessageItemResource
Ein Nachrichtenressourcenelement mit der Rolle assistant.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer assistant ist.Möglicher Wert: assistant |
Ja |
OpenAI.ResponsesDeveloperMessageItemParam
Ein Nachrichtenparameterelement mit der Rolle developer.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer developer ist.Möglicher Wert: developer |
Ja |
OpenAI.ResponsesDeveloperMessageItemResource
Ein Nachrichtenressourcenelement mit der Rolle developer.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer developer ist.Möglicher Wert: developer |
Ja |
OpenAI.ResponsesMessageItemParam
Ein Antwortnachrichtenelement, das eine Rolle und einen Inhalt darstellt, wie als Clientanforderungsparameter angegeben.
Diskriminator für OpenAI.ResponsesMessageItemParam
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemParam |
system |
OpenAI.ResponsesSystemMessageItemParam |
developer |
OpenAI.ResponsesDeveloperMessageItemParam |
assistant |
OpenAI.ResponsesAssistantMessageItemParam |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Rolle (role) | Objekt | Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. | Ja | |
| Typ | enum | Der Typ des Antwortelements, der immer „message“ ist. Möglicher Wert: message |
Ja |
OpenAI.ResponsesMessageItemResource
Ein Ressourcenelement für Antwortnachrichten, das eine Rolle und Inhalte darstellt, wie in Dienstantworten angegeben.
Diskriminator für OpenAI.ResponsesMessageItemResource
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemResource |
system |
OpenAI.ResponsesSystemMessageItemResource |
developer |
OpenAI.ResponsesDeveloperMessageItemResource |
assistant |
OpenAI.ResponsesAssistantMessageItemResource |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Rolle (role) | Objekt | Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Aufgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| Typ | enum | Der Typ des Antwortelements, der immer „message“ ist. Möglicher Wert: message |
Ja |
OpenAI.ResponsesMessageRole
Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.
| Eigentum | Wert |
|---|---|
| Beschreibung | Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. |
| Typ | Schnur |
| Werte | systemdeveloperuserassistant |
OpenAI.ResponsesSystemMessageItemParam
Ein Nachrichtenparameterelement mit der Rolle system.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer system ist.Möglicher Wert: system |
Ja |
OpenAI.ResponsesSystemMessageItemResource
Ein Nachrichtenressourcenelement mit der Rolle system.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer system ist.Möglicher Wert: system |
Ja |
OpenAI.ResponsesUserMessageItemParam
Ein Nachrichtenparameterelement mit der Rolle user.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer user ist.Möglicher Wert: user |
Ja |
OpenAI.ResponsesUserMessageItemResource
Ein Nachrichtenressourcenelement mit der Rolle user.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Inhalt | array | Der Inhalt, welcher der Nachricht zugeordnet ist. | Ja | |
| Rolle (role) | enum | Die Rolle der Nachricht, die immer user ist.Möglicher Wert: user |
Ja |
OpenAI.RunGraderRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | Objekt | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Ja | |
| └─ calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Nein | |
| └- Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Nein | |
| └─ graders | Objekt | Nein | ||
| └– image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| └– Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Nein | |
| └─ Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Nein | |
| └– Name | Schnur | Name des Bewerters (Graders) | Nein | |
| └─ Vorgang | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Nein | |
| └– Bereich | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| └– Referenz | Schnur | Der Text, für die Bewertung. | Nein | |
| └– Stichprobenparameter | Die Samplingparameter für das Modell. | Nein | ||
| └- Quelle | Schnur | Der Quellcode des Python-Skripts. | Nein | |
| └– Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Nein | |
| item | Das Datasetelement, das dem Bewerter bereitgestellt wird. Dies wird zum Auffüllen des Namespace item verwendet. Weitere Details finden Sie im Leitfaden. |
Nein | ||
| model_sample | Schnur | Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel einegültige JSON-Zeichenfolge ist. |
Ja |
OpenAI.RunGraderResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Metadaten | Objekt | Ja | ||
| └– Fehler | Objekt | Nein | ||
| └– Formelauswertungsfehler | boolean | Nein | ||
| └– ungültiger_Variablenfehler | boolean | Nein | ||
| └─ model_grader_parse_error | boolean | Nein | ||
| └─ model_grader_refusal_error | boolean | Nein | ||
| └─ model_grader_server_error | boolean | Nein | ||
| └─ model_grader_server_error_details | Schnur | Nein | ||
| └─ other_error | boolean | Nein | ||
| └─ python_grader_runtime_error | boolean | Nein | ||
| └─ python_grader_runtime_error_details | Schnur | Nein | ||
| └– python_grader_server_error | boolean | Nein | ||
| └─ python_grader_server_error_type | Schnur | Nein | ||
| └– sample_parse_error | boolean | Nein | ||
| └─ truncated_observation_error | boolean | Nein | ||
| └– nicht-reaktionsfähiger_Belohnungsfehler | boolean | Nein | ||
| └– Ausführungszeit | number | Nein | ||
| └– Name | Schnur | Nein | ||
| └─ sampled_model_name | Schnur | Nein | ||
| └– Wertungen | Nein | |||
| └– Tokenverwendung | integer | Nein | ||
| └– Typ | Schnur | Nein | ||
| model_grader_token_usage_per_model | Ja | |||
| reward | number | Ja | ||
| sub_rewards | Ja |
OpenAI.StaticChunkingStrategy
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf. |
Ja | |
| max_chunk_size_tokens | integer | Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096. |
Ja |
OpenAI.StaticChunkingStrategyRequestParam
Passen Sie Ihre eigene Blockerstellungsstrategie an, indem Sie die Blockgröße und die Blocküberlappung festlegen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Statisch | OpenAI.StaticChunkingStrategy | Ja | ||
| Typ | enum | Immer static.Möglicher Wert: static |
Ja |
OpenAI.StaticChunkingStrategyResponseParam
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Statisch | OpenAI.StaticChunkingStrategy | Ja | ||
| Typ | enum | Immer static.Möglicher Wert: static |
Ja |
OpenAI.StopConfiguration
Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.
Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Dieses Schema akzeptiert einen der folgenden Typen:
- String
- array
OpenAI.Tool
Diskriminator für OpenAI.Tool
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search_preview |
OpenAI.WebSearchPreviewTool |
code_interpreter |
OpenAI.CodeInterpreterTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellTool |
mcp |
OpenAI.MCPTool |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ToolType | Ein Tool, das zum Generieren einer Antwort verwendet werden kann. | Ja |
OpenAI.ToolChoiceObject
Diskriminator für OpenAI.ToolChoiceObject
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_search |
OpenAI.ToolChoiceObjectFileSearch |
computer_use_preview |
OpenAI.ToolChoiceObjectComputer |
web_search_preview |
OpenAI.ToolChoiceObjectWebSearch |
image_generation |
OpenAI.ToolChoiceObjectImageGen |
code_interpreter |
OpenAI.ToolChoiceObjectCodeInterpreter |
function |
OpenAI.ToolChoiceObjectFunction |
mcp |
OpenAI.ToolChoiceObjectMCP |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | Ja |
OpenAI.ToolChoiceObjectCodeInterpreter
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: code_interpreter |
Ja |
OpenAI.ToolChoiceObjectComputer
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: computer_use_preview |
Ja |
OpenAI.ToolChoiceObjectFileSearch
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: file_search |
Ja |
OpenAI.ToolChoiceObjectFunction
Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| name | Schnur | Der Name der aufzurufenden Funktion. | Ja | |
| Typ | enum | Bei Funktionsaufrufen ist der Typ immer function.Möglicher Wert: function |
Ja |
OpenAI.ToolChoiceObjectImageGen
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: image_generation |
Ja |
OpenAI.ToolChoiceObjectMCP
Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| name | Schnur | Der Name des Tools, das auf dem Server aufgerufen werden soll. | Nein | |
| Serverbeschriftung | Schnur | Die Bezeichnung des zu verwendenden MCP-Servers. | Ja | |
| Typ | enum | Bei MCP-Tools ist der Typ immer mcp.Möglicher Wert: mcp |
Ja |
OpenAI.ToolChoiceObjectType
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
| Eigentum | Wert |
|---|---|
| Beschreibung | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. |
| Typ | Schnur |
| Werte | file_searchfunctioncomputer_use_previewweb_search_previewimage_generationcode_interpretermcp |
OpenAI.ToolChoiceObjectWebSearch
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Möglicher Wert: web_search_preview |
Ja |
OpenAI.ToolChoiceOptions
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
| Eigentum | Wert |
|---|---|
| Beschreibung | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufrufen wird und stattdessen eine Meldung generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von eines odervon Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. |
| Typ | Schnur |
| Werte | noneautorequired |
OpenAI.ToolType
Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
| Eigentum | Wert |
|---|---|
| Beschreibung | Ein Tool, das zum Generieren einer Antwort verwendet werden kann. |
| Typ | Schnur |
| Werte | file_searchfunctioncomputer_use_previewweb_search_previewmcpcode_interpreterimage_generationlocal_shell |
OpenAI.TopLogProb
Die oberste Protokollwahrscheinlichkeit eines Tokens.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Byte | array | Ja | ||
| logprob | number | Ja | ||
| token | Schnur | Ja |
OpenAI.UpdateVectorStoreFileAttributesRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Ja |
OpenAI.UpdateVectorStoreRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| expires_after | Objekt | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| └– Anker | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Möglicher Wert: last_active_at |
Nein | |
| └– Tage | integer | Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. | Nein | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| name | Schnur | Der Name des Vektorspeichers. | Nein |
OpenAI.ValidateGraderRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | Objekt | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Ja | |
| └─ calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Nein | |
| └- Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Nein | |
| └─ graders | Objekt | Nein | ||
| └– image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| └– Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Nein | |
| └─ Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Nein | |
| └– Name | Schnur | Name des Bewerters (Graders) | Nein | |
| └─ Vorgang | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Nein | |
| └– Bereich | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| └– Referenz | Schnur | Der Text, für die Bewertung. | Nein | |
| └– Stichprobenparameter | Die Samplingparameter für das Modell. | Nein | ||
| └- Quelle | Schnur | Der Quellcode des Python-Skripts. | Nein | |
| └– Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Nein |
OpenAI.ValidateGraderResponse
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Bewerter | Objekt | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Nein | |
| └─ calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Nein | |
| └- Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Nein | |
| └─ graders | Objekt | Nein | ||
| └– image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| └– Eingabe | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Nein | |
| └─ Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Nein | |
| └– Name | Schnur | Name des Bewerters (Graders) | Nein | |
| └─ Vorgang | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Nein | |
| └– Bereich | array | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| └– Referenz | Schnur | Der Text, für die Bewertung. | Nein | |
| └– Stichprobenparameter | Die Samplingparameter für das Modell. | Nein | ||
| └- Quelle | Schnur | Der Quellcode des Python-Skripts. | Nein | |
| └– Typ | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Nein |
OpenAI.VectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| anchor | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Möglicher Wert: last_active_at |
Ja | |
| days | integer | Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. | Ja |
OpenAI.VectorStoreFileAttributes
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, boolesche Werte oder Zahlen.
Typ: Objekt
OpenAI.VectorStoreFileBatchObject
Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. | Ja | |
| file_counts | Objekt | Ja | ||
| └– abgebrochen | integer | Die Anzahl von Dateien, die abgebrochen wurden. | Nein | |
| └– abgeschlossen | integer | Die Anzahl verarbeiteter Dateien. | Nein | |
| └– fehlgeschlagen | integer | Die Anzahl von Dateien, die nicht verarbeitet werden konnten. | Nein | |
| └─ in Bearbeitung | integer | Die Anzahl von Dateien, die derzeit verarbeitet werden. | Nein | |
| └– Gesamtsumme | integer | Die Gesamtanzahl der Dateien. | Nein | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| Objekt | enum | Der Objekttyp, der immer vector_store.file_batch ist.Möglicher Wert: vector_store.files_batch |
Ja | |
| status | enum | Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed).Mögliche Werte: in_progress, , completed, cancelledfailed |
Ja | |
| vector_store_id | Schnur | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Ja |
OpenAI.VectorStoreFileObject
Eine Liste der an einen Vektorspeicher angefügten Dateien.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| attributes | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit einer maximalen Länge von 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Boolesche Werte oder Zahlen. |
Nein | |
| chunking_strategy | Objekt | Nein | ||
| └– Typ | enum | Mögliche Werte: static, other |
Nein | |
| erstellt_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. | Ja | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| last_error | Objekt | Der letzte Fehler im Zusammenhang mit dieser Vektorspeicherdatei. Ist null, wenn keine Fehler vorliegen. |
Ja | |
| └– Code | enum | Einer der folgenden Werte: server_error oder rate_limit_exceeded.Mögliche Werte: server_error, , unsupported_fileinvalid_file |
Nein | |
| └– Nachricht | Schnur | Eine für Menschen lesbare Beschreibung des Fehlers. | Nein | |
| Objekt | enum | Der Objekttyp, der immer vector_store.file ist.Möglicher Wert: vector_store.file |
Ja | |
| status | enum | Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist.Mögliche Werte: in_progress, , completed, cancelledfailed |
Ja | |
| usage_bytes | integer | Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. | Ja | |
| vector_store_id | Schnur | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Ja |
OpenAI.VectorStoreObject
Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| erstellt_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. | Ja | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| läuft_ab_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher abläuft. | Nein | |
| file_counts | Objekt | Ja | ||
| └– abgebrochen | integer | Die Anzahl von Dateien, die abgebrochen wurden. | Nein | |
| └– abgeschlossen | integer | Die Anzahl erfolgreich verarbeiteter Dateien. | Nein | |
| └– fehlgeschlagen | integer | Die Anzahl von Dateien, die nicht verarbeitet werden konnten. | Nein | |
| └─ in Bearbeitung | integer | Die Anzahl von Dateien, die derzeit verarbeitet werden. | Nein | |
| └– Gesamtsumme | integer | Die Gesamtanzahl der Dateien. | Nein | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| last_active_at | integer | Der UNIX-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. | Ja | |
| Metadaten | Objekt | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Ja | |
| name | Schnur | Der Name des Vektorspeichers. | Ja | |
| Objekt | enum | Der Objekttyp, der immer vector_store ist.Möglicher Wert: vector_store |
Ja | |
| status | enum | Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist.Mögliche Werte: expired, , in_progresscompleted |
Ja | |
| usage_bytes | integer | Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. | Ja |
OpenAI.VoiceIdsShared
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | alloyashballadcoralechofableonyxnovasageshimmerverse |
OpenAI.WebSearchAction
Diskriminator für OpenAI.WebSearchAction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
find |
OpenAI.WebSearchActionFind |
open_page |
OpenAI.WebSearchActionOpenPage |
search |
OpenAI.WebSearchActionSearch |
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | OpenAI.WebSearchActionType | Ja |
OpenAI.WebSearchActionFind
Aktionstyp „find“: Sucht innerhalb einer geladenen Seite nach einem Muster.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| pattern | Schnur | Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. | Ja | |
| Typ | enum | Der Aktionstyp. Möglicher Wert: find |
Ja | |
| url | Schnur | Die URL der Seite, die nach dem Muster durchsucht wird. | Ja |
OpenAI.WebSearchActionOpenPage
Aktionstyp „open_page“ – Öffnet eine bestimmte URL aus Suchergebnissen.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Typ | enum | Der Aktionstyp. Möglicher Wert: open_page |
Ja | |
| url | Schnur | Die URL, die vom Modell geöffnet wird. | Ja |
OpenAI.WebSearchActionSearch
Aktionstyp „search“ – Führt eine Websuchabfrage aus.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Anfrage | Schnur | Die Suchabfrage | Ja | |
| Typ | enum | Der Aktionstyp. Möglicher Wert: search |
Ja |
OpenAI.WebSearchActionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | searchopen_pagefind |
OpenAI.WebSearchPreviewTool
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Suchkontextgröße | enum | Allgemeine Richtlinie für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer von low, medium oder high.
medium ist die Standardeinstellung.Mögliche Werte: low, , mediumhigh |
Nein | |
| Typ | enum | Der Typ des Websuchtools. Einer der folgenden Werte: web_search_preview oder web_search_preview_2025_03_11.Möglicher Wert: web_search_preview |
Ja | |
| Benutzerstandort | Objekt | Nein | ||
| └– Typ | OpenAI.LocationType | Nein |
OpenAI.WebSearchToolCallItemParam
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| action | Objekt | Ja | ||
| └– Typ | OpenAI.WebSearchActionType | Nein | ||
| Typ | enum | Möglicher Wert: web_search_call |
Ja |
OpenAI.WebSearchToolCallItemResource
Hinweis
web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| action | Objekt | Ja | ||
| └– Typ | OpenAI.WebSearchActionType | Nein | ||
| status | enum | Der Status des Aufrufs des Websuchtools. Mögliche Werte: in_progress, , searching, completedfailed |
Ja | |
| Typ | enum | Möglicher Wert: web_search_call |
Ja |
PineconeChatDataSource
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| Parameter | Objekt | Die Parameterinformationen zum Steuern der Verwendung der Pinecone-Datenquelle. | Ja | |
| └– erlaube_unvollständiges_Ergebnis | boolean | Wenn dieser Wert auf WAHR festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Falls nicht oder als FALSCH angegeben, schlägt die Anforderung fehl, wenn eine beliebige Suchabfrage fehlschlägt. |
Nein | Falsch |
| └– Authentifizierung | Objekt | Nein | ||
| └– Schlüssel | Schnur | Nein | ||
| └– Typ | enum | Möglicher Wert: api_key |
Nein | |
| └– embedding_dependency | Objekt | Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. | Nein | |
| └– Typ | AzureChatDataSourceVectorizationSourceType | Der unterscheidende Bezeichner für die konkrete Vektorisierungsquelle. | Nein | |
| └– Umwelt | Schnur | Der mit Pinecone zu verwendende Umgebungsname. | Nein | |
| └– fields_mapping | Objekt | Feldzuordnungen, die auf Daten angewendet werden, die von der Pinecone-Datenquelle verwendet werden. Beachten Sie, dass Inhaltsfeldzuordnungen für Pinecone erforderlich sind. |
Nein | |
| └─ content_fields | array | Nein | ||
| └─ Inhalt_Feldtrenner | Schnur | Nein | ||
| └─ filepath_field | Schnur | Nein | ||
| └– Titel_Feld | Schnur | Nein | ||
| └– url_field | Schnur | Nein | ||
| └– in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | Nein | |
| └– Kontexte_einschließen | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
Nein | ['Zitate', 'Absicht'] |
| └– index_name | Schnur | Der Name des zu verwendenden Pinecone-Datenbankindexes. | Nein | |
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig nimmt das System eine automatische Bestimmung vor. |
Nein | |
| └– Striktheit | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Eine höhere Strenge erhöht die Genauigkeit, verringert jedoch die Trefferquote der Antwort. |
Nein | |
| └– top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage angezeigt werden sollen. | Nein | |
| Typ | enum | Der diskriminierte Typbezeichner, der immer „pinecone” ist. Möglicher Wert: pinecone |
Ja |
ResponseFormatJSONSchemaRequest
| Name | Typ | BESCHREIBUNG | Erforderlich | Standard |
|---|---|---|---|---|
| JSON-Schema | Objekt | JSON-Schema für das Antwortformat | Ja | |
| Typ | enum | Typ des Antwortformats Möglicher Wert: json_schema |
Ja |
ResponseModalities
Ausgabetypen, die das Modell generieren soll. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview-Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioausgaben generiert, können Sie Folgendes verwenden:
["text", "audio"]
Array von: Zeichenfolge