Azure AI Foundry Agent Service (Vorschau)
Integrieren Sie die Funktionen des Azure AI Foundry Agent Service ganz einfach in Ihre Workflows.
Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:
| Dienstleistung | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Logik-Apps | Norm | Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche: – Azure Government-Regionen - Azure China-Regionen - US Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps-Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Kontakt | |
|---|---|
| Name | Microsoft |
| URL | https://support.microsoft.com |
| Connectormetadaten | |
|---|---|
| Herausgeber | Microsoft |
| Webseite | https://learn.microsoft.com/en-us/azure/ai-services/agents/ |
| Datenschutzrichtlinie | https://learn.microsoft.com/en-us/legal/cognitive-services/agents/data-privacy-security |
| Kategorien | Künstliche Intelligenz; Business Intelligence |
Erstellen einer Verbindung
Der Connector unterstützt die folgenden Authentifizierungstypen:
| Verwaltete Logic Apps-Identität | Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität | NUR LOGICAPPS | Freigabefähig |
| Microsoft Entra ID-Benutzeranmeldung | Anmelden mit Microsoft Entra ID-Anmeldeinformationen | Alle Regionen | Nicht teilbar |
| Standard [VERALTET] | Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt. | Alle Regionen | Nicht teilbar |
Verwaltete Identität von Logik-Apps
Auth-ID: managedIdentityAuth
Anwendbar: NUR LOGICAPPS
Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität
Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumente
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| LogicApps Managed Identity | managedIdentity | Anmelden mit einer verwalteten Logik-App-Identität | Richtig |
| Azure AI-Projektendpunkt | Schnur | Der Name des Azure AI-Projektendpunkts wie https://{account-name}.services.ai.azure.com/api/projects/{project-name} | Richtig |
Microsoft Entra ID-Benutzeranmeldung
Auth-ID: entraIDUserLogin
Anwendbar: Alle Regionen
Anmelden mit Microsoft Entra ID-Anmeldeinformationen
Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| Azure AI-Projektendpunkt | Schnur | Der Name des Azure AI-Projektendpunkts wie https://{account-name}.services.ai.azure.com/api/projects/{project-name} | Richtig |
Standard [VERALTET]
Anwendbar: Alle Regionen
Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt.
Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.
Drosselungsgrenzwerte
| Name | Aufrufe | Verlängerungszeitraum |
|---|---|---|
| API-Aufrufe pro Verbindung | 1000 | 60 Sekunden |
Aktionen
| Agent aufrufen |
Rufen Sie den Agent auf. |
| Auflisten von Agenten |
Auflisten von Agenten |
| Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID |
Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID |
| Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung |
Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung |
| Get Run |
Get Run |
| Lauf erstellen |
Lauf erstellen |
| Nachrichten auflisten |
Nachrichten auflisten |
| Thread erstellen |
Thread erstellen |
Agent aufrufen
Rufen Sie den Agent auf.
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
API-Version
|
api-version | True | string |
API-Version |
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
|
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Erfahren Sie mehr. |
|
|
top_logprobs
|
top_logprobs | integer |
Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. |
|
|
previous_response_id
|
previous_response_id | string |
Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Unterhaltungsstatus. |
|
|
background
|
background | boolean |
Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
|
|
max_output_tokens
|
max_output_tokens | integer |
Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
|
|
max_tool_calls
|
max_tool_calls | integer |
Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. |
|
|
type
|
type | True | string |
Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von Das Standardformat ist Nicht empfohlen für gpt-4o und neuere Modelle: Durch das Festlegen auf |
|
type
|
type | True | string |
Ein Tool, das zum Generieren einer Antwort verwendet werden kann. |
|
tool_choice
|
tool_choice |
Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den |
||
|
id
|
id | True | string |
Der eindeutige Bezeichner der zu verwendenden Promptvorlage. |
|
Ausgabe
|
version | string |
Optionale Version der Promptvorlage. |
|
|
variables
|
variables | object |
Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
|
|
truncation
|
truncation | string |
Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
|
|
|
Eingabe
|
input |
Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen: |
||
|
einschließen
|
include | string |
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
|
|
|
Parallele Werkzeugaufrufe
|
parallel_tool_calls | boolean |
Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
|
|
store
|
store | boolean |
Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. |
|
|
instructions
|
instructions | string |
Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei gleichzeitiger Verwendung mit |
|
|
type
|
type | True | string | |
|
name
|
name | True | string |
Der Name des Agents. |
|
Ausgabe
|
version | True | string |
Der Versionsbezeichner des Agents. |
Gibt zurück
- Body
- OpenAI.Response
Auflisten von Agenten
Auflisten von Agenten
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
API-Version
|
api-version | True | string |
API-Version |
Gibt zurück
- Body
- listAgentsResponse
Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID
Externes Agent-Aktivitätsprotokoll basierend auf der Agent-ID
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Die ID des Agents, an den eine Nachricht gesendet werden soll.
|
AgentId | True | string |
Die ID des Agents, an den eine Nachricht gesendet werden soll. |
|
|
object |
Gibt zurück
- response
- object
Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung
Externes Agent-Aktivitätsprotokoll basierend auf der Anwendung
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Agentanwendung.
|
MyApplication | True | string |
Agentanwendung. |
|
|
object |
Gibt zurück
- response
- object
Get Run
Get Run
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
API-Version
|
api-version | True | string |
API-Version |
|
Die ID des Threads, für den eine Nachricht erstellt werden soll.
|
ThreadId | True | string |
Die ID des Threads, für den eine Nachricht erstellt werden soll. |
|
Die ID der Ausführung.
|
RunId | True | string |
Die ID der Ausführung. |
Gibt zurück
- Body
- getRunResponse
Lauf erstellen
Lauf erstellen
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
API-Version
|
api-version | True | string |
API-Version |
|
Die ID des Threads, für den eine Nachricht erstellt werden soll.
|
ThreadId | True | string |
Die ID des Threads, für den eine Nachricht erstellt werden soll. |
|
assistant_id
|
assistant_id | True | string |
Die ID des Assistenten, der für diese Ausführung verwendet werden soll |
|
Modell
|
model | string |
Der Name der Modellbereitstellung, der zum Ausführen dieser Ausführung verwendet werden soll. Wenn angegeben, überschreibt er den Modellbereitstellungsnamen des Assistenten. |
|
|
instructions
|
instructions | string |
Überschreibt die Anweisungen des Assistenten. Nützlich für das Ändern des Verhaltens pro Ausführung. |
|
|
additional_instructions
|
additional_instructions | string |
Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. |
|
|
role
|
role | string |
Die Rolle der Entität, die die Nachricht erstellt. Kann Benutzer oder Assistent sein. "Benutzer" gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen. "Assistent" gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
|
|
Inhalt
|
content | string |
Der Inhalt der Nachricht. |
|
|
name
|
name | string |
Liste der Datei-IDs oder Nachrichten, die in der Ausführung verwendet werden können. |
|
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
|
|
name
|
name | string |
Liste der Tools, die in der Ausführung verwendet werden können. |
|
|
metadata
|
metadata | object |
Set of 16 key-value pairs attached to an object. Schlüssel max. Länge: 64 Zeichen, Maximale Länge der Werte: 512 Zeichen. |
|
|
Temperatur
|
temperature | number |
Probenahmetemperatur (0-2). Höhere Werte (z. B. 0,8) erhöhen die Zufallszahlen, niedrigere Werte (z. B. 0,2) erhöhen die Ausgabe deterministisch. |
|
|
top_p
|
top_p | number |
Kernsampling alternative zu Temperatur. 0,1 bedeutet, dass top 10% Wahrscheinlichkeitsmasse berücksichtigt wird. |
|
|
Datenstrom
|
stream | boolean |
Wenn true, gibt einen Datenstrom von Ereignissen während der Ausführung als servergesendete Ereignisse zurück, die mit einer Nachricht vom Typ "Data: [DONE]" beendet werden. |
|
|
max_prompt_tokens
|
max_prompt_tokens | integer |
Die maximale Anzahl von Abschlusstoken, die möglicherweise für die Ausführung verwendet werden. Wenn dieser Wert überschritten wird, endet die Ausführung als unvollständig. |
|
|
max_completion_tokens
|
max_completion_tokens | integer |
Die maximale Anzahl von Abschlusstoken, die möglicherweise für die Ausführung verwendet werden. Wenn dieser Wert überschritten wird, endet die Ausführung als unvollständig. |
|
|
truncation_strategy
|
truncation_strategy | object |
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird, um das anfängliche Kontextfenster zu verwalten. |
|
|
tool_choice
|
tool_choice | object |
Steuert, welches Tool das Modell aufruft. Der Standardwert ist "auto", sodass das Modell entscheiden kann. Kann auf 'none' festgelegt werden, um die Toolverwendung zu deaktivieren. |
|
|
Antwortformat
|
response_format | object |
Gibt das Ausgabeformat an. Einstellung { 'type': 'json_object' } aktiviert den JSON-Modus für gültige JSON-Antworten. |
Gibt zurück
- Body
- createRunResponse
Nachrichten auflisten
Nachrichten auflisten
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
API-Version
|
api-version | True | string |
API-Version |
|
Die ID des Threads, für den eine Nachricht erstellt werden soll.
|
ThreadId | True | string |
Die ID des Threads, für den eine Nachricht erstellt werden soll. |
Gibt zurück
- Body
- listMessageResponse
Thread erstellen
Thread erstellen
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
API-Version
|
api-version | True | string |
API-Version |
|
role
|
role | string |
Die Rolle der Entität, die die Nachricht erstellt. Kann Benutzer oder Assistent sein. "Benutzer" gibt an, dass die Nachricht von einem tatsächlichen Benutzer gesendet wird und in den meisten Fällen verwendet werden soll, um vom Benutzer generierte Nachrichten darzustellen. "Assistent" gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen. |
|
|
Inhalt
|
content | string |
Der Inhalt der Nachricht. |
|
|
name
|
name | string |
Liste der Datei-IDs oder Nachrichten, die in der Ausführung verwendet werden können. |
|
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
|
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
|
|
tool_resources
|
tool_resources | object |
Eine Reihe von Ressourcen, die für die Tools des Assistenten in diesem Thread verfügbar gemacht werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das tool code_interpreter eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
Gibt zurück
- Body
- createThreadResponse
Definitionen
listAgentsResponse
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Details des Antwortobjekttyps. |
|
Daten
|
data | array of Data |
Die Liste der vom Dienst zurückgegebenen Nachrichten. |
|
first_id
|
first_id | string |
Details zur ersten ID. |
|
last_id
|
last_id | string |
Details zur letzten ID. |
|
has_more
|
has_more | boolean |
Gibt an, ob mehr Agents vorhanden sind. |
createThreadResponse
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann |
|
Objekt
|
object | string |
Der Objekttyp, der immer Thread ist. |
|
erstellt_am
|
created_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. |
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern. Schlüssel dürfen maximal 64 Zeichen und Werte dürfen höchstens 512 Zeichen lang sein. |
createRunResponse
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann |
|
Objekt
|
object | string |
Der Objekttyp, der immer thread.run ist. |
|
erstellt_am
|
created_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde |
|
thread_id
|
thread_id | string |
Die ID des Threads, der als Teil dieser Ausführung ausgeführt wurde. |
|
assistant_id
|
assistant_id | string |
Die ID des Assistenten, der für diese Ausführung verwendet wird |
|
status
|
status | string |
Der Status der Ausführung, die entweder in die Warteschlange eingereiht, in_progress, requires_action, abgebrochen, abgebrochen, fehlgeschlagen, abgeschlossen oder abgelaufen sein kann. |
|
required_action
|
required_action | object |
Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. |
|
last_error
|
last_error | object |
Der letzte Fehler im Zusammenhang mit dieser Ausführung. Wird null sein, wenn keine Fehler vorhanden sind. |
|
läuft_ab_am
|
expires_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft |
|
started_at
|
started_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde |
|
cancelled_at
|
cancelled_at | integer |
Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Ausführung abgebrochen wurde. |
|
failed_at
|
failed_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist |
|
abgeschlossen_am
|
completed_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde |
|
Modell
|
model | string |
Der Modellbereitstellungsname, den der Assistent für diese Ausführung verwendet hat. |
|
instructions
|
instructions | string |
Die Anweisungen, die der Assistent für diese Ausführung verwendet hat |
|
Werkzeuge
|
tools | array of tools |
Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat |
|
Datei-IDs
|
file_ids | array of fileIds |
Die Liste der Datei-IDs, die der Assistent für diese Ausführung verwendet hat. |
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Schlüssel können maximal 64 Zeichen lang sein, und Werte können maximal 512 Zeichen lang sein. |
|
tool_choice
|
tool_choice | object |
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. "none" bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. "Auto" bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann. Angeben eines Tools wie {'type': 'file_search'} oder {'type': 'function', 'function': {'name': 'my_function'}} erzwingt das Modell, dieses Tool aufzurufen. |
|
max_prompt_tokens
|
max_prompt_tokens | number |
Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden |
|
max_completion_tokens
|
max_completion_tokens | number |
Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden |
|
usage
|
usage | object |
Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, in die Warteschlange eingereiht). |
|
truncation_strategy
|
truncation_strategy | object |
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. |
|
Antwortformat
|
response_format | string |
Das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-Turbo-1106. |
getRunResponse
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann |
|
Objekt
|
object | string |
Der Objekttyp, der immer thread.run ist. |
|
erstellt_am
|
created_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde |
|
thread_id
|
thread_id | string |
Die ID des Threads, der als Teil dieser Ausführung ausgeführt wurde. |
|
assistant_id
|
assistant_id | string |
Die ID des Assistenten, der für diese Ausführung verwendet wird |
|
status
|
status | string |
Der Status der Ausführung, die entweder in die Warteschlange eingereiht, in_progress, requires_action, abgebrochen, abgebrochen, fehlgeschlagen, abgeschlossen oder abgelaufen sein kann. |
|
required_action
|
required_action | object |
Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. |
|
last_error
|
last_error | object |
Der letzte Fehler im Zusammenhang mit dieser Ausführung. Wird null sein, wenn keine Fehler vorhanden sind. |
|
läuft_ab_am
|
expires_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft |
|
started_at
|
started_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde |
|
cancelled_at
|
cancelled_at | integer |
Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Ausführung abgebrochen wurde. |
|
failed_at
|
failed_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist |
|
abgeschlossen_am
|
completed_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde |
|
Modell
|
model | string |
Der Modellbereitstellungsname, den der Assistent für diese Ausführung verwendet hat. |
|
instructions
|
instructions | string |
Die Anweisungen, die der Assistent für diese Ausführung verwendet hat |
|
Werkzeuge
|
tools | array of tools |
Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat |
|
Datei-IDs
|
file_ids | array of fileIds |
Die Liste der Datei-IDs, die der Assistent für diese Ausführung verwendet hat. |
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Schlüssel können maximal 64 Zeichen lang sein, und Werte können maximal 512 Zeichen lang sein. |
|
tool_choice
|
tool_choice | object |
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. "none" bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. "Auto" bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines Tools auswählen kann. Angeben eines Tools wie {'type': 'file_search'} oder {'type': 'function', 'function': {'name': 'my_function'}} erzwingt das Modell, dieses Tool aufzurufen. |
|
max_prompt_tokens
|
max_prompt_tokens | number |
Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden |
|
max_completion_tokens
|
max_completion_tokens | number |
Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden |
|
usage
|
usage | object |
Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert ist null, wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, in die Warteschlange eingereiht). |
|
truncation_strategy
|
truncation_strategy | object |
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. |
|
Antwortformat
|
response_format | string |
Das Format, das das Modell ausgeben muss. Kompatibel mit GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-Turbo-1106. |
listMessageResponse
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Details des Antwortobjekttyps |
|
Daten
|
data | array of Data |
Die Liste der vom Dienst zurückgegebenen Nachrichten. |
|
first_id
|
first_id | string |
Details der ersten ID |
|
last_id
|
last_id | string |
Details der letzten ID |
|
has_more
|
has_more | boolean |
Gibt an, ob mehr Agents vorhanden sind. |
Daten
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann |
|
Objekt
|
object | string |
Der Objekttyp, der immer Assistent ist. |
|
erstellt_am
|
created_at | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Assistent erstellt wurde. |
|
name
|
name | string |
Der Name des Assistenten. Die maximale Länge beträgt 256 Zeichen. |
|
Beschreibung
|
description | string |
Die Beschreibung des Assistenten. Die maximale Länge beträgt 512 Zeichen. |
|
Modell
|
model | string |
Name des zu verwendenden Modellbereitstellungsnamens. |
|
instructions
|
instructions | string |
Die Systemanweisungen, die der Assistent verwendet. Die maximale Länge beträgt 32.768 Zeichen. |
|
Werkzeuge
|
tools | array of tools |
Eine Liste der im Assistenten aktivierten Tools. Jeder Assistent kann maximal 128 Tools enthalten. Tools können Typen code_interpreter oder Funktion sein. Eine Funktionsbeschreibung kann maximal 1.024 Zeichen umfassen. |
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Nützlich zum Speichern zusätzlicher Informationen in einem strukturierten Format. Schlüssel können maximal 64 Zeichen lang sein, und Werte können maximal 512 Zeichen lang sein. |
|
Temperatur
|
temperature | number |
Der Standardwert lautet 1. Bestimmt, welche Probenahmetemperatur zwischen 0 und 2 verwendet werden soll. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. |
|
top_p
|
top_p | number |
Der Standardwert lautet 1. Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. |
|
Antwortformat
|
response_format | object |
Gibt das Format an, das das Modell ausgeben muss. Durch Festlegen dieses Parameters auf { 'type': 'json_object' } wird der JSON-Modus aktiviert, um sicherzustellen, dass die Nachricht gültig ist. |
|
tool_resources
|
tool_resources | object |
Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das tool code_interpreter eine Liste von Datei-IDs, während das file_search Tool eine Liste von Vektorspeicher-IDs erfordert. |
OpenAI.ServiceTier
Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.
- Wenn sie auf "auto" festgelegt ist, wird die Anforderung mit der in den Project-Einstellungen konfigurierten Dienstebene verarbeitet. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
- Wenn sie auf "Standard" festgelegt ist, wird die Anforderung mit den Standardpreisen und der Leistung für das ausgewählte Modell verarbeitet.
- Wenn sie auf "Flex" oder "Priorität" festgelegt ist, wird die Anforderung mit der entsprechenden Dienstebene verarbeitet. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
- Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".
Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier Wert basierend auf dem Verarbeitungsmodus, der tatsächlich für die Anforderung verwendet wird. Dieser Antwortwert kann sich von dem wert unterscheiden, der im Parameter festgelegt wurde.
Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.
- Wenn sie auf "auto" festgelegt ist, wird die Anforderung mit der in den Project-Einstellungen konfigurierten Dienstebene verarbeitet. Sofern nicht anders konfiguriert, verwendet das Projekt "default".
- Wenn sie auf "Standard" festgelegt ist, wird die Anforderung mit den Standardpreisen und der Leistung für das ausgewählte Modell verarbeitet.
- Wenn sie auf "Flex" oder "Priorität" festgelegt ist, wird die Anforderung mit der entsprechenden Dienstebene verarbeitet. Wenden Sie sich an den Vertrieb , um mehr über die Prioritätsverarbeitung zu erfahren.
- Wenn sie nicht festgelegt ist, lautet das Standardverhalten "auto".
Wenn der service_tier Parameter festgelegt ist, enthält der Antworttext den service_tier Wert basierend auf dem Verarbeitungsmodus, der tatsächlich für die Anforderung verwendet wird. Dieser Antwortwert kann sich von dem wert unterscheiden, der im Parameter festgelegt wurde.
OpenAI.Reasoning
Nur o-Serienmodelle
Konfigurationsoptionen für Begründungsmodelle.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
effort
|
effort | string | |
|
summary
|
summary | string |
Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer von |
|
generate_summary
|
generate_summary | string |
Veraltet: Verwenden Sie Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann nützlich sein, um das Debuggen und den Begründungsprozess des Modells besser zu verstehen.
Einer von |
OpenAI.ResponseTextFormatConfiguration
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
type
|
type | OpenAI.ResponseTextFormatConfigurationType |
Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von Das Standardformat ist Nicht empfohlen für gpt-4o und neuere Modelle: Durch das Festlegen auf |
OpenAI.ResponseTextFormatConfigurationType
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der Anleitung „Strukturierte Ausgaben“.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
OpenAI.Tool
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
type
|
type | OpenAI.ToolType |
Ein Tool, das zum Generieren einer Antwort verwendet werden kann. |
OpenAI.ToolType
Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
OpenAI.Prompt
Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Der eindeutige Bezeichner der zu verwendenden Promptvorlage. |
|
Ausgabe
|
version | string |
Optionale Version der Promptvorlage. |
|
variables
|
variables | OpenAI.ResponsePromptVariables |
Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
OpenAI.Response
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
metadata
|
metadata | object |
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
|
Temperatur
|
temperature | float |
Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder |
|
top_p
|
top_p | float |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder |
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Erfahren Sie mehr. |
|
Dienststufe
|
service_tier | OpenAI.ServiceTier |
Gibt den Verarbeitungstyp an, der für die Bereitstellung der Anforderung verwendet wird.
Wenn der |
|
top_logprobs
|
top_logprobs | integer |
Eine ganze Zahl zwischen 0 und 20, die die Anzahl der Token angibt, die an jeder Tokenposition höchstwahrscheinlich zurückgegeben werden, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. |
|
previous_response_id
|
previous_response_id | string |
Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. Erfahren Sie mehr über den Unterhaltungsstatus. |
|
Modell
|
model | string |
Das Modell, das für die Erstellung dieser Antwort eingesetzt werden soll. |
|
reasoning
|
reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
|
background
|
background | boolean |
Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. Erfahren Sie mehr. |
|
max_output_tokens
|
max_output_tokens | integer |
Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
|
max_tool_calls
|
max_tool_calls | integer |
Die maximale Anzahl aller Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. |
|
format
|
text.format | OpenAI.ResponseTextFormatConfiguration | |
|
Werkzeuge
|
tools | array of OpenAI.Tool |
Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den Sie können die beiden folgenden Kategorien von Tools bereitstellen:
|
|
tool_choice
|
tool_choice |
Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den |
|
|
prompt
|
prompt | OpenAI.Prompt |
Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
|
truncation
|
truncation | string |
Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
|
|
id
|
id | string |
Eindeutiger Bezeichner für diese Antwort |
|
Objekt
|
object | string |
Der Objekttyp dieser Ressource, immer auf |
|
status
|
status | string |
Der Status der Antwortgenerierung. Einer von der folgenden Werte: |
|
erstellt_am
|
created_at | unixtime |
Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. |
|
Fehler
|
error | OpenAI.ResponseError |
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. |
|
Grund
|
incomplete_details.reason | string |
Der Grund, warum die Antwort unvollständig ist. |
|
output
|
output | array of OpenAI.ItemResource |
Ein Array von Inhaltselementen, die vom Modell generiert werden.
|
|
instructions
|
instructions |
Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei gleichzeitiger Verwendung mit |
|
|
output_text
|
output_text | string |
SDK-spezifische Komforteigenschaft, die die aggregierte Textausgabe aller |
|
usage
|
usage | OpenAI.ResponseUsage |
Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. |
|
Parallele Werkzeugaufrufe
|
parallel_tool_calls | boolean |
Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. |
|
id
|
conversation.id | string | |
|
Agent
|
agent | AgentId |
OpenAI.ResponseError
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Code
|
code | OpenAI.ResponseErrorCode |
Der Fehlercode für die Antwort. |
|
message
|
message | string |
Eine für Menschen lesbare Beschreibung des Fehlers. |
OpenAI.ResponseErrorCode
OpenAI.ItemResource
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
type
|
type | OpenAI.ItemType | |
|
id
|
id | string |
OpenAI.ItemType
OpenAI.ResponseUsage
Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
input_tokens
|
input_tokens | integer |
Die Anzahl der Eingabetoken. |
|
cached_tokens
|
input_tokens_details.cached_tokens | integer |
Die Anzahl der Token, die aus dem Cache abgerufen wurden. Weitere Informationen zum Zwischenspeichern von Prompts. |
|
output_tokens
|
output_tokens | integer |
Die Anzahl der Ausgabetoken. |
|
Begründungs_Token
|
output_tokens_details.reasoning_tokens | integer |
Die Anzahl der Begründungstoken |
|
Gesamtanzahl Tokens
|
total_tokens | integer |
Die Gesamtzahl der verwendeten Token. |
AgentId
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
type
|
type | string | |
|
name
|
name | string |
Der Name des Agents. |
|
Ausgabe
|
version | string |
Der Versionsbezeichner des Agents. |
OpenAI.ResponsePromptVariables
Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
|
object |
Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. |
Werkzeuge
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
name
|
name | string |
Liste der Tools, die in der Ausführung verwendet werden können. |
fileIds
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
name
|
name | string |
Liste der Datei-IDs, die in der Ausführung verwendet werden können. |
Objekt
Dies ist der Typ 'object'.