Azure OpenAI (Vorschau)
Integrieren Sie die modernsten Funktionen der künstlichen Intelligenz von Azure OpenAI ganz einfach in Ihre Workflows.
Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:
| Dienstleistung | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Logik-Apps | Norm | Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche: – Azure Government-Regionen - Azure China-Regionen - US Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps-Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Kontakt | |
|---|---|
| Name | Microsoft |
| URL | https://support.microsoft.com |
| Connectormetadaten | |
|---|---|
| Herausgeber | Microsoft |
| Webseite | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Datenschutzrichtlinie | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Kategorien | Künstliche Intelligenz; Business Intelligence |
Erstellen einer Verbindung
Der Connector unterstützt die folgenden Authentifizierungstypen:
| API-Schlüssel | Bereitstellen des Azure OpenAI-Ressourcennamens und des API-Schlüssels für den Zugriff auf Ihre Azure OpenAI, die das KI-Modell hosten. | Alle Regionen | Freigabefähig |
| Verwaltete Logic Apps-Identität | Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität | NUR LOGICAPPS | Freigabefähig |
| Standard [VERALTET] | Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt. | Alle Regionen | Nicht teilbar |
API-Schlüssel
Auth-ID: keyBasedAuth
Anwendbar: Alle Regionen
Bereitstellen des Azure OpenAI-Ressourcennamens und des API-Schlüssels für den Zugriff auf Ihre Azure OpenAI, die das KI-Modell hosten.
Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumente
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| Name der Azure OpenAI-Ressource | Schnur | Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten | Richtig |
| Azure OpenAI-API-Schlüssel | securestring | Der API-Schlüssel für den Zugriff auf die Azure OpenAI-Ressource, die das KI-Modell hostt | Richtig |
| Azure Cognitive Search-Endpunkt-URL | Schnur | Die URL des Azure Cognitive Search-Endpunkts, der Ihre Daten indiziert | |
| API-Schlüssel für die kognitive Azure-Suche | securestring | Der API-Schlüssel für den Zugriff auf den Azure Cognitive Search-Endpunkt, der Ihre Daten indiziert |
Verwaltete Identität von Logik-Apps
Auth-ID: managedIdentityAuth
Anwendbar: NUR LOGICAPPS
Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität
Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumente
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| LogicApps Managed Identity | managedIdentity | Anmelden mit einer verwalteten Logik-App-Identität | Richtig |
| Name der Azure OpenAI-Ressource | Schnur | Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten | Richtig |
Standard [VERALTET]
Anwendbar: Alle Regionen
Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt.
Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| Name der Azure OpenAI-Ressource | Schnur | Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten | Richtig |
| Azure OpenAI-API-Schlüssel | securestring | Der API-Schlüssel für den Zugriff auf die Azure OpenAI-Ressource, die das KI-Modell hostt | Richtig |
| Azure Cognitive Search-Endpunkt-URL | Schnur | Die URL des Azure Cognitive Search-Endpunkts, der Ihre Daten indiziert | |
| API-Schlüssel für die kognitive Azure-Suche | securestring | Der API-Schlüssel für den Zugriff auf den Azure Cognitive Search-Endpunkt, der Ihre Daten indiziert |
Drosselungsgrenzwerte
| Name | Aufrufe | Verlängerungszeitraum |
|---|---|---|
| API-Aufrufe pro Verbindung | 1000 | 60 Sekunden |
Aktionen
| Abrufen einer Einbettung |
Abrufen einer Vektordarstellung einer bestimmten Eingabe, die von Machine Learning-Modellen und Algorithmen problemlos genutzt werden kann |
| Abrufen mehrerer Einbettungen |
Abrufen von Vektordarstellungen eines bestimmten Arrays von Eingaben, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden können |
| Erstellt eine Vervollständigung für die Chatnachricht |
Erstellt eine Vervollständigung für die Chatnachricht |
| Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten |
Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten |
Abrufen einer Einbettung
Abrufen einer Vektordarstellung einer bestimmten Eingabe, die von Machine Learning-Modellen und Algorithmen problemlos genutzt werden kann
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
Eingabe
|
input | True | string |
Eingabetext zum Abrufen von Einbettungen, codiert als Zeichenfolge. Eingabezeichenfolge darf 2048 Token in der Länge nicht überschreiten |
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. |
|
|
input_type
|
input_type | string |
Der Eingabetyp der zu verwendenden Einbettungssuche. |
Gibt zurück
Abrufen mehrerer Einbettungen
Abrufen von Vektordarstellungen eines bestimmten Arrays von Eingaben, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden können
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
Eingabe
|
input | True | array of string |
Array von Eingabetexten zum Abrufen von Einbettungen, codiert als Zeichenfolge. Jede Eingabezeichenfolge darf 2048 Token nicht länger als 2048 Token sein. |
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. |
|
|
input_type
|
input_type | string |
Der Eingabetyp der zu verwendenden Einbettungssuche. |
Gibt zurück
Erstellt eine Vervollständigung für die Chatnachricht
Erstellt eine Vervollständigung für die Chatnachricht
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
Temperatur
|
temperature | number |
Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder |
|
|
top_p
|
top_p | number |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder |
|
|
Datenstrom
|
stream | boolean |
Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine |
|
|
stop
|
stop | array of string |
Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten. |
|
|
maximale_Anzahl_von_Tokens
|
max_tokens | integer |
Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). |
|
|
presence_penalty
|
presence_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
|
|
frequency_penalty
|
frequency_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
|
|
logit_bias
|
logit_bias | object |
Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
|
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. |
|
|
role
|
role | True | string |
Die Rolle des Nachrichtenautors. |
|
Inhalt
|
content | True | string |
Ein Array von Inhaltsteilen mit einem definierten Typ, jeder kann vom Typ |
|
type
|
type | True | string |
Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
|
top_n_documents
|
top_n_documents | integer |
Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. |
|
|
in_scope
|
in_scope | boolean |
Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. |
|
|
Striktheit
|
strictness | integer |
Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. |
|
|
Rolleninformationen
|
role_information | string |
Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. |
|
|
index_name
|
index_name | True | string |
Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource. |
|
Titel_Feld
|
title_field | string |
Der Name des Indexfelds, das als Titel verwendet werden soll. |
|
|
url_field
|
url_field | string |
Der Name des Indexfelds, das als URL verwendet werden soll. |
|
|
filepath_field
|
filepath_field | string |
Der Name des Indexfelds, das als Dateipfad verwendet werden soll. |
|
|
Inhaltsfelder
|
content_fields | array of string |
Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. |
|
|
content_fields_separator
|
content_fields_separator | string |
Das Trennmuster, das Inhaltsfelder verwenden sollen. |
|
|
Vektorfelder
|
vector_fields | array of string |
Die Namen von Feldern, die Vektordaten darstellen. |
|
|
Abfrage_typ
|
query_type | string |
Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll |
|
|
semantische_Konfiguration
|
semantic_configuration | string |
Die zusätzliche semantische Konfiguration für die Abfrage. |
|
|
Filter
|
filter | string |
Suchfilter. |
|
|
type
|
type | string |
Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren |
|
|
deployment_name
|
deployment_name | True | string |
Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht. |
|
n
|
n | integer |
Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. |
|
|
seed
|
seed | integer |
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben |
|
|
logprobs
|
logprobs | boolean |
Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der |
|
|
top_logprobs
|
top_logprobs | integer |
Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
|
|
|
type
|
type | string |
Einstellung zum |
Gibt zurück
Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten
Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
Bestätigen der Bereitstellungs-ID des bereitgestellten Modells
|
deploymentId | True | string |
Bestätigen der Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
index
|
index | integer |
Der Index der Nachricht in der Unterhaltung. |
|
|
role
|
role | True | string |
Die Rolle des Autors dieser Nachricht |
|
recipient
|
recipient | string |
Der Empfänger der Nachricht im Format des <Namespaces>.<Operation>. Vorhanden, wenn und nur, wenn der Empfänger Tool ist. |
|
|
Inhalt
|
content | True | string |
Der Inhalt der Nachricht |
|
end_turn
|
end_turn | boolean |
Gibt an, ob die Nachricht die Drehung beendet. |
|
|
type
|
type | True | string |
Der Datenquellentyp. |
|
parameters
|
parameters | object |
Die Parameter, die zur Laufzeit für die Datenquelle verwendet werden sollen. |
|
|
Temperatur
|
temperature | number |
Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder |
|
|
top_p
|
top_p | number |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder |
|
|
Datenstrom
|
stream | boolean |
Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine |
|
|
stop
|
stop | array of string |
Array-Mindestgröße von 1 und maximal 4 |
|
|
maximale_Anzahl_von_Tokens
|
max_tokens | integer |
Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). |
|
|
presence_penalty
|
presence_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
|
|
frequency_penalty
|
frequency_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
|
|
logit_bias
|
logit_bias | object |
Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
|
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. |
Gibt zurück
Die Antwort der Erweiterungschat-Fertigstellungen.
Definitionen
Nachricht
Eine Chatnachricht.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
index
|
index | integer |
Der Index der Nachricht in der Unterhaltung. |
|
role
|
role | string |
Die Rolle des Autors dieser Nachricht |
|
recipient
|
recipient | string |
Der Empfänger der Nachricht im Format des <Namespaces>.<Operation>. Vorhanden, wenn und nur, wenn der Empfänger Tool ist. |
|
Inhalt
|
content | string |
Der Inhalt der Nachricht |
|
end_turn
|
end_turn | boolean |
Gibt an, ob die Nachricht die Drehung beendet. |
ExtensionsChatCompletionsResponse
Die Antwort der Erweiterungschat-Fertigstellungen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string | |
|
Objekt
|
object | string | |
|
erstellt
|
created | integer | |
|
Modell
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
index
|
index | integer | |
|
Beendigungsgrund
|
finish_reason | string | |
|
Content-Filtern-Egebnisse
|
content_filter_results | contentFilterResults |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. |
|
messages
|
messages | array of Message |
Die Liste der vom Dienst zurückgegebenen Nachrichten. |
contentFilterResult
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
severity
|
severity | string | |
|
gefiltert
|
filtered | boolean |
contentFilterResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
Gewalt
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
Selbstverletzung
|
self_harm | contentFilterResult | |
|
Fehler
|
error | errorBase |
PromptFilterErgebnis
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
Content-Filtern-Egebnisse
|
content_filter_results | contentFilterResults |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Gegenstände
|
promptFilterResult |
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung |
errorBase
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Code
|
code | string | |
|
message
|
message | string |
errorBase_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Code
|
code | string | |
|
message
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
gefiltert
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
gefiltert
|
filtered | boolean | |
|
erkannt
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
gefiltert
|
filtered | boolean | |
|
erkannt
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
license
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string | |
|
gefiltert
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
Gewalt
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
Selbstverletzung
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
Profanität
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
Fehler
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
Gewalt
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
Selbstverletzung
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
Profanität
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
Fehler
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
Content-Filtern-Egebnisse
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. |
promptFilterResults_2024Feb15Preview
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Gegenstände
|
promptFilterResult_2024Feb15Preview |
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung |
azureChatExtensionsMessageContext_2024Feb15Preview
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Zitationen
|
citations | array of citation_2024Feb15Preview |
Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. |
|
Absicht
|
intent | string |
Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. |
citation_2024Feb15Preview
Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Inhalt
|
content | string |
Der Inhalt des Zitats. |
|
title
|
title | string |
Der Titel des Zitats. |
|
URL
|
url | string |
Die URL des Zitats. |
|
Dateipfad
|
filepath | string |
Der Dateipfad des Zitats. |
|
chunk_id
|
chunk_id | string |
Die Segment-ID des Zitats. |
createChatCompletionResponse_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Ein eindeutiger Bezeichner für die Chatvervollständigung |
|
Objekt
|
object | chatCompletionResponseObject_2024Feb15Preview |
Der Objekttyp. |
|
erstellt
|
created | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde |
|
Modell
|
model | string |
Das Modell, das für die Chatvervollständigung verwendet wird |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Nutzungsstatistiken für die Vervollständigungsanforderung |
|
Systemfingerabdruck
|
system_fingerprint | string |
Kann zusammen mit dem Anforderungsparameter |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
Beendigungsgrund
|
choices.finish_reason | string | |
|
message
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Eine vom Modell generierte Chatvervollständigungsnachricht |
|
Content-Filtern-Egebnisse
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Logarithmierte Wahrscheinlichkeit für die Auswahl |
chatCompletionChoiceLogProbs_2024Feb15Preview
Logarithmierte Wahrscheinlichkeit für die Auswahl
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Inhalt
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit |
chatCompletionTokenLogprob_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
token
|
token | string |
Das Token. |
|
logprob
|
logprob | number |
Die logarithmierte Wahrscheinlichkeit dieses Tokens |
|
Bytes
|
bytes | array of integer |
Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann |
|
top_logprobs
|
top_logprobs | array of object |
Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für |
|
token
|
top_logprobs.token | string |
Das Token. |
|
logprob
|
top_logprobs.logprob | number |
Die logarithmierte Wahrscheinlichkeit dieses Tokens |
|
Bytes
|
top_logprobs.bytes | array of integer |
Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann |
chatCompletionResponseMessage_2024Feb15Preview
Eine vom Modell generierte Chatvervollständigungsnachricht
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
role
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Die Rolle des Antwortnachrichterstellers |
|
Inhalt
|
content | string |
Der Inhalt der Nachricht. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Nutzungsstatistiken für die Vervollständigungsanforderung
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Anzahl der Token im Prompt. |
|
completion_tokens
|
completion_tokens | integer |
Anzahl der Token in der generierten Vervollständigung |
|
Gesamtanzahl Tokens
|
total_tokens | integer |
Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Details des Antwortobjekttyps |
|
Modell
|
model | string |
Den Modellnamen |
|
embedding
|
embedding | array of number |
Ein Array von Floats, die die berechneten Einbettungen für die angegebenen Eingaben darstellen |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Die Anzahl der token, die in der Eingabe verwendet werden |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer |
Die verwendeten Gesamttoken |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Details des Antwortobjekttyps |
|
Modell
|
model | string |
Den Modellnamen |
|
embeddings
|
embeddings | array of array |
Ein Array mit Float-Arrays, die die berechneten Einbettungen der Eingabezeichenfolgenauflistung darstellen |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Die Anzahl der token, die in der Eingabe verwendet werden |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer |
Die verwendeten Gesamttoken |