Freigeben über


Azure OpenAI (Vorschau)

Integrieren Sie die modernsten Funktionen der künstlichen Intelligenz von Azure OpenAI ganz einfach in Ihre Workflows.

Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:

Dienstleistung Class Regions
Copilot Studio Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Logik-Apps Norm Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche:
     – Azure Government-Regionen
     - Azure China-Regionen
     - US Department of Defense (DoD)
Power Apps Premium Alle Power Apps-Regionen mit Ausnahme der folgenden:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Power Automate Premium Alle Power Automate-Regionen mit Ausnahme der folgenden Bereiche:
     - US Government (GCC)
     - US Government (GCC High)
     - China Cloud betrieben von 21Vianet
     - US Department of Defense (DoD)
Kontakt
Name Microsoft
URL https://support.microsoft.com
Connectormetadaten
Herausgeber Microsoft
Webseite https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Datenschutzrichtlinie https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Kategorien Künstliche Intelligenz; Business Intelligence

Erstellen einer Verbindung

Der Connector unterstützt die folgenden Authentifizierungstypen:

API-Schlüssel Bereitstellen des Azure OpenAI-Ressourcennamens und des API-Schlüssels für den Zugriff auf Ihre Azure OpenAI, die das KI-Modell hosten. Alle Regionen Freigabefähig
Verwaltete Logic Apps-Identität Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität NUR LOGICAPPS Freigabefähig
Standard [VERALTET] Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt. Alle Regionen Nicht teilbar

API-Schlüssel

Auth-ID: keyBasedAuth

Anwendbar: Alle Regionen

Bereitstellen des Azure OpenAI-Ressourcennamens und des API-Schlüssels für den Zugriff auf Ihre Azure OpenAI, die das KI-Modell hosten.

Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumente

Name Typ Description Erforderlich
Name der Azure OpenAI-Ressource Schnur Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten Richtig
Azure OpenAI-API-Schlüssel securestring Der API-Schlüssel für den Zugriff auf die Azure OpenAI-Ressource, die das KI-Modell hostt Richtig
Azure Cognitive Search-Endpunkt-URL Schnur Die URL des Azure Cognitive Search-Endpunkts, der Ihre Daten indiziert
API-Schlüssel für die kognitive Azure-Suche securestring Der API-Schlüssel für den Zugriff auf den Azure Cognitive Search-Endpunkt, der Ihre Daten indiziert

Verwaltete Identität von Logik-Apps

Auth-ID: managedIdentityAuth

Anwendbar: NUR LOGICAPPS

Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität

Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumente

Name Typ Description Erforderlich
LogicApps Managed Identity managedIdentity Anmelden mit einer verwalteten Logik-App-Identität Richtig
Name der Azure OpenAI-Ressource Schnur Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten Richtig

Standard [VERALTET]

Anwendbar: Alle Regionen

Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt.

Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.

Name Typ Description Erforderlich
Name der Azure OpenAI-Ressource Schnur Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten Richtig
Azure OpenAI-API-Schlüssel securestring Der API-Schlüssel für den Zugriff auf die Azure OpenAI-Ressource, die das KI-Modell hostt Richtig
Azure Cognitive Search-Endpunkt-URL Schnur Die URL des Azure Cognitive Search-Endpunkts, der Ihre Daten indiziert
API-Schlüssel für die kognitive Azure-Suche securestring Der API-Schlüssel für den Zugriff auf den Azure Cognitive Search-Endpunkt, der Ihre Daten indiziert

Drosselungsgrenzwerte

Name Aufrufe Verlängerungszeitraum
API-Aufrufe pro Verbindung 1000 60 Sekunden

Aktionen

Abrufen einer Einbettung

Abrufen einer Vektordarstellung einer bestimmten Eingabe, die von Machine Learning-Modellen und Algorithmen problemlos genutzt werden kann

Abrufen mehrerer Einbettungen

Abrufen von Vektordarstellungen eines bestimmten Arrays von Eingaben, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden können

Erstellt eine Vervollständigung für die Chatnachricht

Erstellt eine Vervollständigung für die Chatnachricht

Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten

Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten

Abrufen einer Einbettung

Abrufen einer Vektordarstellung einer bestimmten Eingabe, die von Machine Learning-Modellen und Algorithmen problemlos genutzt werden kann

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Bereitstellungs-ID des bereitgestellten Modells
deployment-id True string

Bereitstellungs-ID des bereitgestellten Modells

API-Version
api-version True string

API-Version

Eingabe
input True string

Eingabetext zum Abrufen von Einbettungen, codiert als Zeichenfolge. Eingabezeichenfolge darf 2048 Token in der Länge nicht überschreiten

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann.

input_type
input_type string

Der Eingabetyp der zu verwendenden Einbettungssuche.

Gibt zurück

Abrufen mehrerer Einbettungen

Abrufen von Vektordarstellungen eines bestimmten Arrays von Eingaben, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden können

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Bereitstellungs-ID des bereitgestellten Modells
deployment-id True string

Bereitstellungs-ID des bereitgestellten Modells

API-Version
api-version True string

API-Version

Eingabe
input True array of string

Array von Eingabetexten zum Abrufen von Einbettungen, codiert als Zeichenfolge. Jede Eingabezeichenfolge darf 2048 Token nicht länger als 2048 Token sein.

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann.

input_type
input_type string

Der Eingabetyp der zu verwendenden Einbettungssuche.

Gibt zurück

Erstellt eine Vervollständigung für die Chatnachricht

Erstellt eine Vervollständigung für die Chatnachricht

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Bereitstellungs-ID des bereitgestellten Modells
deployment-id True string

Bereitstellungs-ID des bereitgestellten Modells

API-Version
api-version True string

API-Version

Temperatur
temperature number

Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.

top_p
top_p number

Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.

Datenstrom
stream boolean

Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet.

stop
stop array of string

Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.

maximale_Anzahl_von_Tokens
max_tokens integer

Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken).

presence_penalty
presence_penalty number

Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.

frequency_penalty
frequency_penalty number

Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.

logit_bias
logit_bias object

Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann.

role
role True string

Die Rolle des Nachrichtenautors.

Inhalt
content True string

Ein Array von Inhaltsteilen mit einem definierten Typ, jeder kann vom Typ textsein.

type
type True string

Eine Darstellung der Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Wird von einer Chatvervollständigungsanforderung verwendet, die das Antwortverhalten mithilfe von Azure OpenAI-Chaterweiterungen verbessern soll. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

top_n_documents
top_n_documents integer

Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen.

in_scope
in_scope boolean

Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen.

Striktheit
strictness integer

Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf.

Rolleninformationen
role_information string

Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet.

index_name
index_name True string

Der Name des zu verwendenden Index gemäß Angabe in der referenzierten Azure Search-Ressource.

Titel_Feld
title_field string

Der Name des Indexfelds, das als Titel verwendet werden soll.

url_field
url_field string

Der Name des Indexfelds, das als URL verwendet werden soll.

filepath_field
filepath_field string

Der Name des Indexfelds, das als Dateipfad verwendet werden soll.

Inhaltsfelder
content_fields array of string

Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen.

content_fields_separator
content_fields_separator string

Das Trennmuster, das Inhaltsfelder verwenden sollen.

Vektorfelder
vector_fields array of string

Die Namen von Feldern, die Vektordaten darstellen.

Abfrage_typ
query_type string

Der Typ der Azure Search-Abrufabfrage, die bei Verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll

semantische_Konfiguration
semantic_configuration string

Die zusätzliche semantische Konfiguration für die Abfrage.

Filter
filter string

Suchfilter.

type
type string

Stellt die verfügbaren Quellen dar, die Azure OpenAI On Your Data verwenden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren

deployment_name
deployment_name True string

Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellimplementierung muss sich in der gleichen Azure OpenAI-Ressource befinden. On Your Data verwendet diese Modellimplementierung jedoch über einen internen Aufruf anstelle eines öffentlichen Aufrufs, was eine Vektorsuche auch in privaten Netzwerken ermöglicht.

n
n integer

Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen.

seed
seed integer

Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten. Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.

logprobs
logprobs boolean

Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der content von message zurückgegeben wird. Diese Option ist derzeit für das gpt-4-vision-preview Modell nicht verfügbar.

top_logprobs
top_logprobs integer

Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. logprobs muss auf true festgelegt werden, wenn dieser Parameter verwendet wird.

type
type string

Einstellung zum json_object Aktivieren des JSON-Modus. Dadurch wird sichergestellt, dass die vom Modell generierte Nachricht gültige JSON-Daten ist.

Gibt zurück

Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten

Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten

Parameter

Name Schlüssel Erforderlich Typ Beschreibung
Bereitstellungs-ID des bereitgestellten Modells
deployment-id True string

Bereitstellungs-ID des bereitgestellten Modells

Bestätigen der Bereitstellungs-ID des bereitgestellten Modells
deploymentId True string

Bestätigen der Bereitstellungs-ID des bereitgestellten Modells

API-Version
api-version True string

API-Version

index
index integer

Der Index der Nachricht in der Unterhaltung.

role
role True string

Die Rolle des Autors dieser Nachricht

recipient
recipient string

Der Empfänger der Nachricht im Format des <Namespaces>.<Operation>. Vorhanden, wenn und nur, wenn der Empfänger Tool ist.

Inhalt
content True string

Der Inhalt der Nachricht

end_turn
end_turn boolean

Gibt an, ob die Nachricht die Drehung beendet.

type
type True string

Der Datenquellentyp.

parameters
parameters object

Die Parameter, die zur Laufzeit für die Datenquelle verwendet werden sollen.

Temperatur
temperature number

Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.

top_p
top_p number

Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.

Datenstrom
stream boolean

Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine data: [DONE]-Nachricht beendet.

stop
stop array of string

Array-Mindestgröße von 1 und maximal 4

maximale_Anzahl_von_Tokens
max_tokens integer

Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken).

presence_penalty
presence_penalty number

Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.

frequency_penalty
frequency_penalty number

Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.

logit_bias
logit_bias object

Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.

user
user string

Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann.

Gibt zurück

Die Antwort der Erweiterungschat-Fertigstellungen.

Definitionen

Nachricht

Eine Chatnachricht.

Name Pfad Typ Beschreibung
index
index integer

Der Index der Nachricht in der Unterhaltung.

role
role string

Die Rolle des Autors dieser Nachricht

recipient
recipient string

Der Empfänger der Nachricht im Format des <Namespaces>.<Operation>. Vorhanden, wenn und nur, wenn der Empfänger Tool ist.

Inhalt
content string

Der Inhalt der Nachricht

end_turn
end_turn boolean

Gibt an, ob die Nachricht die Drehung beendet.

ExtensionsChatCompletionsResponse

Die Antwort der Erweiterungschat-Fertigstellungen.

Name Pfad Typ Beschreibung
id
id string
Objekt
object string
erstellt
created integer
Modell
model string
prompt_filter_results
prompt_filter_results promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
Gesamtanzahl Tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensionsChatCompletionChoice

Name Pfad Typ Beschreibung
index
index integer
Beendigungsgrund
finish_reason string
Content-Filtern-Egebnisse
content_filter_results contentFilterResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde.

messages
messages array of Message

Die Liste der vom Dienst zurückgegebenen Nachrichten.

contentFilterResult

Name Pfad Typ Beschreibung
severity
severity string
gefiltert
filtered boolean

contentFilterResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde.

Name Pfad Typ Beschreibung
sexual
sexual contentFilterResult
Gewalt
violence contentFilterResult
hate
hate contentFilterResult
Selbstverletzung
self_harm contentFilterResult
Fehler
error errorBase

PromptFilterErgebnis

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

Name Pfad Typ Beschreibung
prompt_index
prompt_index integer
Content-Filtern-Egebnisse
content_filter_results contentFilterResults

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde.

promptFilterResults

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Name Pfad Typ Beschreibung
Gegenstände
promptFilterResult

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

errorBase

Name Pfad Typ Beschreibung
Code
code string
message
message string

errorBase_2024Feb15Preview

Name Pfad Typ Beschreibung
Code
code string
message
message string

contentFilterSeverityResult_2024Feb15Preview

Name Pfad Typ Beschreibung
gefiltert
filtered boolean
severity
severity string

contentFilterDetectedResult_2024Feb15Preview

Name Pfad Typ Beschreibung
gefiltert
filtered boolean
erkannt
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Name Pfad Typ Beschreibung
gefiltert
filtered boolean
erkannt
detected boolean
URL
citation.URL string
license
citation.license string

contentFilterIdResult_2024Feb15Preview

Name Pfad Typ Beschreibung
id
id string
gefiltert
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Pfad Typ Beschreibung
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
Gewalt
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
Selbstverletzung
self_harm contentFilterSeverityResult_2024Feb15Preview
Profanität
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
Fehler
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

Name Pfad Typ Beschreibung
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
Gewalt
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
Selbstverletzung
self_harm contentFilterSeverityResult_2024Feb15Preview
Profanität
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
Fehler
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

Name Pfad Typ Beschreibung
prompt_index
prompt_index integer
Content-Filtern-Egebnisse
content_filter_results contentFilterPromptResults_2024Feb15Preview

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

promptFilterResults_2024Feb15Preview

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

Name Pfad Typ Beschreibung
Gegenstände
promptFilterResult_2024Feb15Preview

Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung

azureChatExtensionsMessageContext_2024Feb15Preview

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.

Name Pfad Typ Beschreibung
Zitationen
citations array of citation_2024Feb15Preview

Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird.

Absicht
intent string

Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen.

citation_2024Feb15Preview

Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.

Name Pfad Typ Beschreibung
Inhalt
content string

Der Inhalt des Zitats.

title
title string

Der Titel des Zitats.

URL
url string

Die URL des Zitats.

Dateipfad
filepath string

Der Dateipfad des Zitats.

chunk_id
chunk_id string

Die Segment-ID des Zitats.

createChatCompletionResponse_2024Feb15Preview

Name Pfad Typ Beschreibung
id
id string

Ein eindeutiger Bezeichner für die Chatvervollständigung

Objekt
object chatCompletionResponseObject_2024Feb15Preview

Der Objekttyp.

erstellt
created integer

Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde

Modell
model string

Das Modell, das für die Chatvervollständigung verwendet wird

usage
usage completionUsage_2024Feb15Preview

Nutzungsstatistiken für die Vervollständigungsanforderung

Systemfingerabdruck
system_fingerprint string

Kann zusammen mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf den Determinismus auswirken können.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.

choices
choices array of object
index
choices.index integer
Beendigungsgrund
choices.finish_reason string
message
choices.message chatCompletionResponseMessage_2024Feb15Preview

Eine vom Modell generierte Chatvervollständigungsnachricht

Content-Filtern-Egebnisse
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.

logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Logarithmierte Wahrscheinlichkeit für die Auswahl

chatCompletionChoiceLogProbs_2024Feb15Preview

Logarithmierte Wahrscheinlichkeit für die Auswahl

Name Pfad Typ Beschreibung
Inhalt
content array of chatCompletionTokenLogprob_2024Feb15Preview

Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit

chatCompletionTokenLogprob_2024Feb15Preview

Name Pfad Typ Beschreibung
token
token string

Das Token.

logprob
logprob number

Die logarithmierte Wahrscheinlichkeit dieses Tokens

Bytes
bytes array of integer

Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist.

top_logprobs
top_logprobs array of object

Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert.

token
top_logprobs.token string

Das Token.

logprob
top_logprobs.logprob number

Die logarithmierte Wahrscheinlichkeit dieses Tokens

Bytes
top_logprobs.bytes array of integer

Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann null sein, wenn für das Token keine Bytedarstellung vorhanden ist.

chatCompletionResponseMessage_2024Feb15Preview

Eine vom Modell generierte Chatvervollständigungsnachricht

Name Pfad Typ Beschreibung
role
role chatCompletionResponseMessageRole_2024Feb15Preview

Die Rolle des Antwortnachrichterstellers

Inhalt
content string

Der Inhalt der Nachricht.

context
context azureChatExtensionsMessageContext_2024Feb15Preview

Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatvervollständigungsantwort beteiligt sind. Diese Kontextinformationen werden nur aufgefüllt, wenn eine Azure OpenAI-Anforderung verwendet wird, die für die Verwendung einer passenden Erweiterung konfiguriert ist.

chatCompletionResponseMessageRole_2024Feb15Preview

Die Rolle des Antwortnachrichterstellers

Die Rolle des Antwortnachrichterstellers

chatCompletionResponseObject_2024Feb15Preview

Der Objekttyp.

Der Objekttyp.

completionUsage_2024Feb15Preview

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Pfad Typ Beschreibung
prompt_tokens
prompt_tokens integer

Anzahl der Token im Prompt.

completion_tokens
completion_tokens integer

Anzahl der Token in der generierten Vervollständigung

Gesamtanzahl Tokens
total_tokens integer

Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung).

getSingleEmbeddingsResponse_2024Feb15Preview

Name Pfad Typ Beschreibung
Objekt
object string

Details des Antwortobjekttyps

Modell
model string

Den Modellnamen

embedding
embedding array of number

Ein Array von Floats, die die berechneten Einbettungen für die angegebenen Eingaben darstellen

prompt_tokens
usage.prompt_tokens integer

Die Anzahl der token, die in der Eingabe verwendet werden

Gesamtanzahl Tokens
usage.total_tokens integer

Die verwendeten Gesamttoken

getMultipleEmbeddingsResponse_2024Feb15Preview

Name Pfad Typ Beschreibung
Objekt
object string

Details des Antwortobjekttyps

Modell
model string

Den Modellnamen

embeddings
embeddings array of array

Ein Array mit Float-Arrays, die die berechneten Einbettungen der Eingabezeichenfolgenauflistung darstellen

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

Die Anzahl der token, die in der Eingabe verwendet werden

Gesamtanzahl Tokens
usage.total_tokens integer

Die verwendeten Gesamttoken