Freigeben über


Azure AI Foundry Agent Service (Vorschau)

Integrieren Sie die Funktionen des Azure AI Foundry Agent Service ganz einfach in Ihre Workflows.

Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:

Dienstleistung Class Regions
Copilot Studio Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Logik-Apps Norm Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche:
     – Azure Government-Regionen
     - Azure China-Regionen
     - US Department of Defense (DoD)
Power Apps Premium Alle Power Apps-Regionen mit Ausnahme der folgenden:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Power Automate Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Kontakt
Name Microsoft
URL https://support.microsoft.com
Connectormetadaten
Herausgeber Microsoft
Webseite https://learn.microsoft.com/en-us/azure/ai-services/agents/
Datenschutzrichtlinie https://learn.microsoft.com/en-us/legal/cognitive-services/agents/data-privacy-security
Kategorien Künstliche Intelligenz; Business Intelligence

Erstellen einer Verbindung

Der Connector unterstützt die folgenden Authentifizierungstypen:

Verwaltete Logic Apps-Identität Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität NUR LOGICAPPS Freigabefähig
Microsoft Entra ID-Benutzeranmeldung Anmelden mit Microsoft Entra ID-Anmeldeinformationen Alle Regionen Nicht teilbar
Standard [VERALTET] Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt. Alle Regionen Nicht teilbar

Verwaltete Identität von Logik-Apps

Auth-ID: managedIdentityAuth

Anwendbar: NUR LOGICAPPS

Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität

Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumente

Name Typ Description Erforderlich
LogicApps Managed Identity managedIdentity Anmelden mit einer verwalteten Logik-App-Identität Richtig
Azure AI-Projektendpunkt Schnur Der Name des Azure AI-Projektendpunkts wie https://{account-name}.services.ai.azure.com/api/projects/{project-name} Richtig

Microsoft Entra ID-Benutzeranmeldung

Auth-ID: entraIDUserLogin

Anwendbar: Alle Regionen

Anmelden mit Microsoft Entra ID-Anmeldeinformationen

Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.

Name Typ Description Erforderlich
Azure AI-Projektendpunkt Schnur Der Name des Azure AI-Projektendpunkts wie https://{account-name}.services.ai.azure.com/api/projects/{project-name} Richtig

Standard [VERALTET]

Anwendbar: Alle Regionen

Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt.

Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.

Drosselungsgrenzwerte

Name Aufrufe Verlängerungszeitraum
API-Aufrufe pro Verbindung 1000 60 Sekunden

Aktionen

Agent aufrufen

Rufen Sie den Agent auf.

Auflisten von Agenten

Auflisten von Agenten

Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID

Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID

Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung

Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung

Get Run

Get Run

Lauf erstellen

Lauf erstellen

Nachrichten auflisten

Nachrichten auflisten

Thread erstellen

Thread erstellen

Agent aufrufen

Rufen Sie den Agent auf.

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
api-version True string

API-Version

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Erfahren Sie mehr.

top_logprobs
top_logprobs integer

Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.

previous_response_id
previous_response_id string

Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Unterhaltungsstatus.

background
background boolean

Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr.

max_output_tokens
max_output_tokens integer

Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.

max_tool_calls
max_tool_calls integer

Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert.

type
type True string

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

type
type True string

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

tool_choice
tool_choice

Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.

id
id True string

Der eindeutige Bezeichner der zu verwendenden Promptvorlage.

Ausgabe
version string

Optionale Version der Promptvorlage.

variables
variables object

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

truncation
truncation string

Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.

  • auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
  • disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Eingabe
input

Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden.

Weitere Informationen:

einschließen
include string

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
  • computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Parallele Werkzeugaufrufe
parallel_tool_calls boolean

Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.

store
store boolean

Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll.

instructions
instructions string

Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.

type
type True string
name
name True string

Der Name des Agents.

Ausgabe
version True string

Der Versionsbezeichner des Agents.

Gibt zurück

Auflisten von Agenten

Auflisten von Agenten

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
api-version True string

API-Version

Gibt zurück

Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID

Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Die ID des Agents, an den eine Nachricht gesendet werden soll.
AgentId True string

Die ID des Agents, an den eine Nachricht gesendet werden soll.

object

Gibt zurück

response
object

Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung

Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Agentanwendung.
MyApplication True string

Agentanwendung.

object

Gibt zurück

response
object

Get Run

Get Run

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
api-version True string

API-Version

Die ID des Threads, für den eine Nachricht erstellt werden soll.
ThreadId True string

Die ID des Threads, für den eine Nachricht erstellt werden soll.

Die ID der Ausführung.
RunId True string

Die ID der Ausführung.

Gibt zurück

Lauf erstellen

Lauf erstellen

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
api-version True string

API-Version

Die ID des Threads, für den eine Nachricht erstellt werden soll.
ThreadId True string

Die ID des Threads, für den eine Nachricht erstellt werden soll.

assistant_id
assistant_id True string

Die ID des Assistenten, der für diese Ausführung verwendet werden soll

Modell
model string

Der Name der Modellbereitstellung, der zum Ausführen dieser Ausführung verwendet werden soll. Wenn angegeben, überschreibt er den Modellbereitstellungsnamen des Assistenten.

instructions
instructions string

Überschreibt die Anweisungen des Assistenten. Nützlich für das Ändern des Verhaltens pro Ausführung.

additional_instructions
additional_instructions string

Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an.

role
role string

Die Rolle der Entität, die die Nachricht erstellt. Kann Benutzer oder Assistent sein. "Benutzer" gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen. "Assistent" gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.

Inhalt
content string

Der Inhalt der Nachricht.

name
name string

Liste der Datei-IDs oder Nachrichten, die in der Ausführung verwendet werden können.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.

name
name string

Liste der Tools, die in der Ausführung verwendet werden können.

metadata
metadata object

Set of 16 key-value pairs attached to an object. Schlüssel max. Länge: 64 Zeichen, Maximale Länge der Werte: 512 Zeichen.

Temperatur
temperature number

Probenahmetemperatur (0-2). Höhere Werte (z. B. 0,8) erhöhen die Zufallszahlen, niedrigere Werte (z. B. 0,2) erhöhen die Ausgabe deterministisch.

top_p
top_p number

Kernsampling alternative zu Temperatur. 0,1 bedeutet, dass top 10% Wahrscheinlichkeitsmasse berücksichtigt wird.

Datenstrom
stream boolean

Wenn true, gibt einen Datenstrom von Ereignissen während der Ausführung als servergesendete Ereignisse zurück, die mit einer Nachricht vom Typ "Data: [DONE]" beendet werden.

max_prompt_tokens
max_prompt_tokens integer

Die maximale Anzahl von Abschlusstoken, die möglicherweise für die Ausführung verwendet werden. Wenn dieser Wert überschritten wird, endet die Ausführung als unvollständig.

max_completion_tokens
max_completion_tokens integer

Die maximale Anzahl von Abschlusstoken, die möglicherweise für die Ausführung verwendet werden. Wenn dieser Wert überschritten wird, endet die Ausführung als unvollständig.

truncation_strategy
truncation_strategy object

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird, um das anfängliche Kontextfenster zu verwalten.

tool_choice
tool_choice object

Steuert, welches Tool das Modell aufruft. Der Standardwert ist "auto", sodass das Modell entscheiden kann. Kann auf 'none' festgelegt werden, um die Toolverwendung zu deaktivieren.

Antwortformat
response_format object

Gibt das Ausgabeformat an. Einstellung { 'type': 'json_object' } aktiviert den JSON-Modus für gültige JSON-Antworten.

Gibt zurück

Nachrichten auflisten

Nachrichten auflisten

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
api-version True string

API-Version

Die ID des Threads, für den eine Nachricht erstellt werden soll.
ThreadId True string

Die ID des Threads, für den eine Nachricht erstellt werden soll.

Gibt zurück

Thread erstellen

Thread erstellen

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
API-Version
api-version True string

API-Version

role
role string

Die Rolle der Entität, die die Nachricht erstellt. Kann Benutzer oder Assistent sein. "Benutzer" gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen. "Assistent" gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.

Inhalt
content string

Der Inhalt der Nachricht.

name
name string

Liste der Datei-IDs oder Nachrichten, die in der Ausführung verwendet werden können.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.

tool_resources
tool_resources object

Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das tool code_interpreter eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.

Gibt zurück

Definitionen

listAgentsResponse

Name Pfad Typ Beschreibung
Objekt
object string

Details des Antwortobjekttyps.

Daten
data array of Data

Die Liste der vom Dienst zurückgegebenen Nachrichten.

first_id
first_id string

Details zur ersten ID.

last_id
last_id string

Details zur letzten ID.

has_more
has_more boolean

Gibt an, ob mehr Agents vorhanden sind.

createThreadResponse

Name Pfad Typ Beschreibung
id
id string

Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann

Objekt
object string

Der Objekttyp, der immer Thread ist.

erstellt_am
created_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein.

createRunResponse

Name Pfad Typ Beschreibung
id
id string

Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann

Objekt
object string

Der Objekttyp, der immer thread.run ist.

erstellt_am
created_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde

thread_id
thread_id string

Die ID des Threads, der als Teil dieser Ausführung ausgeführt wurde.

assistant_id
assistant_id string

Die ID des Assistenten, der für diese Ausführung verwendet wird

status
status string

Der Status der Ausführung, die entweder in die Warteschlange eingereiht, in_progress, requires_action, abgebrochen, abgebrochen, fehlgeschlagen, abgeschlossen oder abgelaufen sein kann.

required_action
required_action object

Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist.

last_error
last_error object

Der letzte Fehler im Zusammenhang mit dieser Ausführung. Wird null sein, wenn keine Fehler vorhanden sind.

läuft_ab_am
expires_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft

started_at
started_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde

cancelled_at
cancelled_at integer

Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Ausführung abgebrochen wurde.

failed_at
failed_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist

abgeschlossen_am
completed_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde

Modell
model string

Der Modellbereitstellungsname, den der Assistent für diese Ausführung verwendet hat.

instructions
instructions string

Die Anweisungen, die der Assistent für diese Ausführung verwendet hat

Werkzeuge
tools array of tools

Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat

Datei-IDs
file_ids array of fileIds

Die Liste der Datei-IDs, die der Assistent für diese Ausführung verwendet hat.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Schlüssel können maximal 64 Zeichen lang sein, und Werte können maximal 512 Zeichen lang sein.

tool_choice
tool_choice object

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. "none" bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. "Auto" bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann. Angeben eines Tools wie {'type': 'file_search'} oder {'type': 'function', 'function': {'name': 'my_function'}} erzwingt das Modell, dieses Tool aufzurufen.

max_prompt_tokens
max_prompt_tokens number

Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden

max_completion_tokens
max_completion_tokens number

Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden

usage
usage object

Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, in die Warteschlange eingereiht).

truncation_strategy
truncation_strategy object

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird.

Antwortformat
response_format string

Das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-Turbo-1106.

getRunResponse

Name Pfad Typ Beschreibung
id
id string

Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann

Objekt
object string

Der Objekttyp, der immer thread.run ist.

erstellt_am
created_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde

thread_id
thread_id string

Die ID des Threads, der als Teil dieser Ausführung ausgeführt wurde.

assistant_id
assistant_id string

Die ID des Assistenten, der für diese Ausführung verwendet wird

status
status string

Der Status der Ausführung, die entweder in die Warteschlange eingereiht, in_progress, requires_action, abgebrochen, abgebrochen, fehlgeschlagen, abgeschlossen oder abgelaufen sein kann.

required_action
required_action object

Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist.

last_error
last_error object

Der letzte Fehler im Zusammenhang mit dieser Ausführung. Wird null sein, wenn keine Fehler vorhanden sind.

läuft_ab_am
expires_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft

started_at
started_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde

cancelled_at
cancelled_at integer

Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Ausführung abgebrochen wurde.

failed_at
failed_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist

abgeschlossen_am
completed_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde

Modell
model string

Der Modellbereitstellungsname, den der Assistent für diese Ausführung verwendet hat.

instructions
instructions string

Die Anweisungen, die der Assistent für diese Ausführung verwendet hat

Werkzeuge
tools array of tools

Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat

Datei-IDs
file_ids array of fileIds

Die Liste der Datei-IDs, die der Assistent für diese Ausführung verwendet hat.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Schlüssel können maximal 64 Zeichen lang sein, und Werte können maximal 512 Zeichen lang sein.

tool_choice
tool_choice object

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. "none" bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. "Auto" bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann. Angeben eines Tools wie {'type': 'file_search'} oder {'type': 'function', 'function': {'name': 'my_function'}} erzwingt das Modell, dieses Tool aufzurufen.

max_prompt_tokens
max_prompt_tokens number

Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden

max_completion_tokens
max_completion_tokens number

Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden

usage
usage object

Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, in die Warteschlange eingereiht).

truncation_strategy
truncation_strategy object

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird.

Antwortformat
response_format string

Das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-Turbo-1106.

listMessageResponse

Name Pfad Typ Beschreibung
Objekt
object string

Details des Antwortobjekttyps

Daten
data array of Data

Die Liste der vom Dienst zurückgegebenen Nachrichten.

first_id
first_id string

Details der ersten ID

last_id
last_id string

Details der letzten ID

has_more
has_more boolean

Gibt an, ob mehr Agents vorhanden sind.

Daten

Name Pfad Typ Beschreibung
id
id string

Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann

Objekt
object string

Der Objekttyp, der immer Assistent ist.

erstellt_am
created_at integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Assistent erstellt wurde.

name
name string

Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen.

Beschreibung
description string

Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen.

Modell
model string

Name des zu verwendenden Modellbereitstellungsnamens.

instructions
instructions string

Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen.

Werkzeuge
tools array of tools

Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können Typen code_interpreter oder Funktion sein. Eine Funktionsbeschreibung kann maximal 1.024 Zeichen umfassen.

metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Nützlich zum Speichern zusätzlicher Informationen in einem strukturierten Format. Schlüssel können maximal 64 Zeichen lang sein, und Werte können maximal 512 Zeichen lang sein.

Temperatur
temperature number

Der Standardwert lautet 1. Bestimmt, welche Probenahmetemperatur zwischen 0 und 2 verwendet werden soll. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.

top_p
top_p number

Der Standardwert lautet 1. Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Antwortformat
response_format object

Gibt das Format an, das das Modell ausgeben muss. Durch Festlegen dieses Parameters auf { 'type': 'json_object' } wird der JSON-Modus aktiviert, um sicherzustellen, dass die Nachricht gültig ist.

tool_resources
tool_resources object

Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das tool code_interpreter eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert.

OpenAI.ServiceTier

Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.

  • Wenn sie auf "auto" festgelegt ist, wird die Anforderung mit der in den Project-Einstellungen konfigurierten Dienstebene verarbeitet. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
  • Wenn sie auf "Standard" festgelegt ist, wird die Anforderung mit den Standardpreisen und der Leistung für das ausgewählte Modell verarbeitet.
  • Wenn sie auf "Flex" oder "Priorität" festgelegt ist, wird die Anforderung mit der entsprechenden Dienstebene verarbeitet. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
  • Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier Wert basierend auf dem Verarbeitungsmodus, der tatsächlich für die Anforderung verwendet wird. Dieser Antwortwert kann sich von dem wert unterscheiden, der im Parameter festgelegt wurde.

Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.

  • Wenn sie auf "auto" festgelegt ist, wird die Anforderung mit der in den Project-Einstellungen konfigurierten Dienstebene verarbeitet. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
  • Wenn sie auf "Standard" festgelegt ist, wird die Anforderung mit den Standardpreisen und der Leistung für das ausgewählte Modell verarbeitet.
  • Wenn sie auf "Flex" oder "Priorität" festgelegt ist, wird die Anforderung mit der entsprechenden Dienstebene verarbeitet. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
  • Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier Wert basierend auf dem Verarbeitungsmodus, der tatsächlich für die Anforderung verwendet wird. Dieser Antwortwert kann sich von dem wert unterscheiden, der im Parameter festgelegt wurde.

OpenAI.Reasoning

Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.

Name Pfad Typ Beschreibung
effort
effort string
summary
summary string

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer von auto, concise oder detailed.

generate_summary
generate_summary string

Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen. Einer von auto, concise oder detailed.

OpenAI.ResponseTextFormatConfiguration

Name Pfad Typ Beschreibung
type
type OpenAI.ResponseTextFormatConfigurationType

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

OpenAI.ResponseTextFormatConfigurationType

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

OpenAI.Tool

Name Pfad Typ Beschreibung
type
type OpenAI.ToolType

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

OpenAI.ToolType

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

OpenAI.Prompt

Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr.

Name Pfad Typ Beschreibung
id
id string

Der eindeutige Bezeichner der zu verwendenden Promptvorlage.

Ausgabe
version string

Optionale Version der Promptvorlage.

variables
variables OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

OpenAI.Response

Name Pfad Typ Beschreibung
metadata
metadata object

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Temperatur
temperature float

Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.

top_p
top_p float

Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.

Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Erfahren Sie mehr.

Dienststufe
service_tier OpenAI.ServiceTier

Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.

  • Wenn sie auf "auto" festgelegt ist, wird die Anforderung mit der in den Project-Einstellungen konfigurierten Dienstebene verarbeitet. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
  • Wenn sie auf "Standard" festgelegt ist, wird die Anforderung mit den Standardpreisen und der Leistung für das ausgewählte Modell verarbeitet.
  • Wenn sie auf "Flex" oder "Priorität" festgelegt ist, wird die Anforderung mit der entsprechenden Dienstebene verarbeitet. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
  • Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".

Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier Wert basierend auf dem Verarbeitungsmodus, der tatsächlich für die Anforderung verwendet wird. Dieser Antwortwert kann sich von dem wert unterscheiden, der im Parameter festgelegt wurde.

top_logprobs
top_logprobs integer

Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.

previous_response_id
previous_response_id string

Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Unterhaltungsstatus.

Modell
model string

Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll.

reasoning
reasoning OpenAI.Reasoning

Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.

background
background boolean

Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr.

max_output_tokens
max_output_tokens integer

Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.

max_tool_calls
max_tool_calls integer

Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert.

format
text.format OpenAI.ResponseTextFormatConfiguration
Werkzeuge
tools array of OpenAI.Tool

Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Sie können die beiden folgenden Kategorien von Tools bereitstellen:

  • Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. Websuche oder Dateisuche. Erfahren Sie mehr über integrierte Tools.
  • Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann. Erfahren Sie mehr über den Funktionsaufruf.
tool_choice
tool_choice

Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.

prompt
prompt OpenAI.Prompt

Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr.

truncation
truncation string

Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.

  • auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
  • disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
id
id string

Eindeutiger Bezeichner für diese Antwort

Objekt
object string

Der Objekttyp dieser Ressource, immer auf response festgelegt.

status
status string

Der Status der Antwortgenerierung. Einer von der folgenden Werte: completed, failed, in_progress, cancelled, queued oder incomplete.

erstellt_am
created_at unixtime

Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort.

Fehler
error OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Grund
incomplete_details.reason string

Der Grund, warum die Antwort unvollständig ist.

output
output array of OpenAI.ItemResource

Ein Array von Inhaltselementen, die vom Modell generiert werden.

  • Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
  • Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, sollten Sie die Eigenschaft verwenden output_text , die in SDKs unterstützt wird.
instructions
instructions

Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei gleichzeitiger Verwendung mit previous_response_id werden die Anweisungen aus einer vorherigen Antwort nicht in die nächste Antwort übernommen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.

output_text
output_text string

SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller output_text-Elemente im output-Array enthält, sofern vorhanden. Unterstützt in den Python- und JavaScript-SDKs.

usage
usage OpenAI.ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Parallele Werkzeugaufrufe
parallel_tool_calls boolean

Gibt an, ob das Modell Toolaufrufe parallel ausführen darf.

id
conversation.id string
Agent
agent AgentId

OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Pfad Typ Beschreibung
Code
code OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

message
message string

Eine für Menschen lesbare Beschreibung des Fehlers.

OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

Der Fehlercode für die Antwort.

OpenAI.ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Name Pfad Typ Beschreibung
type
type OpenAI.ItemType
id
id string

OpenAI.ItemType

OpenAI.ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Pfad Typ Beschreibung
input_tokens
input_tokens integer

Die Anzahl der Eingabetoken.

cached_tokens
input_tokens_details.cached_tokens integer

Die Anzahl der Token, die aus dem Cache abgerufen wurden. Weitere Informationen zum Zwischenspeichern von Prompts.

output_tokens
output_tokens integer

Die Anzahl der Ausgabetoken.

Begründungs_Token
output_tokens_details.reasoning_tokens integer

Die Anzahl der Begründungstoken

Gesamtanzahl Tokens
total_tokens integer

Die Gesamtzahl der verwendeten Token.

AgentId

Name Pfad Typ Beschreibung
type
type string
name
name string

Der Name des Agents.

Ausgabe
version string

Der Versionsbezeichner des Agents.

OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Name Pfad Typ Beschreibung
object

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Werkzeuge

Name Pfad Typ Beschreibung
name
name string

Liste der Tools, die in der Ausführung verwendet werden können.

fileIds

Name Pfad Typ Beschreibung
name
name string

Liste der Datei-IDs, die in der Ausführung verwendet werden können.

Objekt

Dies ist der Typ 'object'.