Azure OpenAI (preview)
Eenvoudig de geavanceerde mogelijkheden voor kunstmatige intelligentie van Azure OpenAI integreren in uw werkstromen
Deze connector is beschikbaar in de volgende producten en regio's:
| Dienst | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate-regio's , met uitzondering van het volgende: - Amerikaanse overheid (GCC) - Amerikaanse overheid (GCC High) - China Cloud beheerd door 21Vianet - Us Department of Defense (DoD) |
| Logic-apps | Standaard | Alle Logic Apps-regio's , met uitzondering van het volgende: - Azure Government-regio's - Azure China-regio's - Us Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps-regio's , met uitzondering van het volgende: - Amerikaanse overheid (GCC) - Amerikaanse overheid (GCC High) - China Cloud beheerd door 21Vianet - Us Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate-regio's , met uitzondering van het volgende: - Amerikaanse overheid (GCC) - Amerikaanse overheid (GCC High) - China Cloud beheerd door 21Vianet - Us Department of Defense (DoD) |
| Contactpersoon | |
|---|---|
| Naam | Microsoft |
| URL | https://support.microsoft.com |
| Connectormetagegevens | |
|---|---|
| Uitgever | Microsoft |
| Webpagina | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Privacybeleid | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Categorieën | AI; Business Intelligence |
Een verbinding maken
De connector ondersteunt de volgende verificatietypen:
| API-sleutel | Geef de azure OpenAI-resourcenaam en API-sleutel op voor toegang tot uw Azure OpenAI die als host fungeert voor het AI-model. | Alle regio's | Deelbaar |
| Beheerde identiteit van Logic Apps | Een verbinding maken met behulp van een door LogicApps beheerde identiteit | Alleen LOGICAPPS | Deelbaar |
| Standaard [AFGESCHAFT] | Deze optie is alleen bedoeld voor oudere verbindingen zonder expliciet verificatietype en is alleen beschikbaar voor compatibiliteit met eerdere versies. | Alle regio's | Niet deelbaar |
API-sleutel
Verificatie-id: keyBasedAuth
Van toepassing: Alle regio's
Geef de azure OpenAI-resourcenaam en API-sleutel op voor toegang tot uw Azure OpenAI die als host fungeert voor het AI-model.
Dit is deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt de verbinding ook gedeeld. Zie het overzicht van connectors voor canvas-apps - Power Apps | Microsoft Docs
| Naam | Typologie | Description | Verplicht |
|---|---|---|---|
| Azure OpenAI-resourcenaam | touw | De naam van de Azure OpenAI-resource die als host fungeert voor het AI-model | Klopt |
| Azure OpenAI API-sleutel | beveiligde string | De API-sleutel voor toegang tot de Azure OpenAI-resource die als host fungeert voor het AI-model | Klopt |
| Azure Cognitive Search-eindpunt-URL | touw | De URL van het Azure Cognitive Search-eindpunt dat uw gegevens indexeert | |
| Azure Cognitive Search-API-sleutel | beveiligde string | De API-sleutel voor toegang tot het Azure Cognitive Search-eindpunt dat uw gegevens indexeert |
Beheerde identiteit van Logic Apps
Verificatie-id: managedIdentityAuth
Van toepassing: alleen LOGICAPPS
Een verbinding maken met behulp van een door LogicApps beheerde identiteit
Dit is deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt de verbinding ook gedeeld. Zie het overzicht van connectors voor canvas-apps - Power Apps | Microsoft Docs
| Naam | Typologie | Description | Verplicht |
|---|---|---|---|
| Beheerde identiteit van LogicApps | managedIdentity | Aanmelden met een beheerde identiteit van Logic Apps | Klopt |
| Azure OpenAI-resourcenaam | touw | De naam van de Azure OpenAI-resource die als host fungeert voor het AI-model | Klopt |
Standaard [AFGESCHAFT]
Van toepassing: Alle regio's
Deze optie is alleen bedoeld voor oudere verbindingen zonder expliciet verificatietype en is alleen beschikbaar voor compatibiliteit met eerdere versies.
Dit is geen deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt een andere gebruiker gevraagd om expliciet een nieuwe verbinding te maken.
| Naam | Typologie | Description | Verplicht |
|---|---|---|---|
| Azure OpenAI-resourcenaam | touw | De naam van de Azure OpenAI-resource die als host fungeert voor het AI-model | Klopt |
| Azure OpenAI API-sleutel | beveiligde string | De API-sleutel voor toegang tot de Azure OpenAI-resource die als host fungeert voor het AI-model | Klopt |
| Azure Cognitive Search-eindpunt-URL | touw | De URL van het Azure Cognitive Search-eindpunt dat uw gegevens indexeert | |
| Azure Cognitive Search-API-sleutel | beveiligde string | De API-sleutel voor toegang tot het Azure Cognitive Search-eindpunt dat uw gegevens indexeert |
Beperkingslimieten
| Name | Aanroepen | Verlengingsperiode |
|---|---|---|
| API-aanroepen per verbinding | 1000 | 60 seconden |
Acties
| Een insluiting ophalen |
Een vectorweergave ophalen van een bepaalde invoer die eenvoudig kan worden gebruikt door machine learning-modellen en -algoritmen |
| Extensies gebruiken om een voltooiing voor chatberichten te maken |
Extensies gebruiken om een voltooiing voor chatberichten te maken |
| Hiermee maakt u een voltooiing voor het chatbericht |
Hiermee maakt u een voltooiing voor het chatbericht |
| Meerdere insluitingen ophalen |
Vectorweergaven ophalen van een bepaalde matrix met invoer die eenvoudig kunnen worden gebruikt door machine learning-modellen en -algoritmen |
Een insluiting ophalen
Een vectorweergave ophalen van een bepaalde invoer die eenvoudig kan worden gebruikt door machine learning-modellen en -algoritmen
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
Implementatie-id van het geïmplementeerde model
|
deployment-id | True | string |
Implementatie-id van het geïmplementeerde model |
|
API-versie
|
api-version | True | string |
API-versie |
|
invoer
|
input | True | string |
Invoertekst voor het ophalen van insluitingen voor, gecodeerd als een tekenreeks. Invoertekenreeks mag niet langer zijn dan 2048 tokens |
|
user
|
user | string |
Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren. |
|
|
type invoer
|
input_type | string |
Het invoertype voor het insluiten van zoekopdrachten die u wilt gebruiken. |
Retouren
Extensies gebruiken om een voltooiing voor chatberichten te maken
Extensies gebruiken om een voltooiing voor chatberichten te maken
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
Implementatie-id van het geïmplementeerde model
|
deployment-id | True | string |
Implementatie-id van het geïmplementeerde model |
|
Implementatie-id van het geïmplementeerde model bevestigen
|
deploymentId | True | string |
Implementatie-id van het geïmplementeerde model bevestigen |
|
API-versie
|
api-version | True | string |
API-versie |
|
index
|
index | integer |
De index van het bericht in het gesprek. |
|
|
rol
|
role | True | string |
De rol van de auteur van dit bericht. |
|
ontvanger
|
recipient | string |
De ontvanger van het bericht in de indeling van <de naamruimte>.<bewerking>. Aanwezig als en alleen als de ontvanger een hulpmiddel is. |
|
|
inhoud
|
content | True | string |
De inhoud van het bericht |
|
end_turn
|
end_turn | boolean |
Of het bericht de beurt beëindigt. |
|
|
type
|
type | True | string |
Het gegevensbrontype. |
|
parameters
|
parameters | object |
De parameters die moeten worden gebruikt voor de gegevensbron in runtime. |
|
|
temperatuur
|
temperature | number |
Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt.
Over het algemeen raden we u aan dit of |
|
|
top_p
|
top_p | number |
Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd.
Over het algemeen raden we u aan dit of |
|
|
beek
|
stream | boolean |
Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een |
|
|
stop
|
stop | array of string |
Minimale matrixgrootte van 1 en maximaal 4 |
|
|
maximaal_aantal_tokens
|
max_tokens | integer |
Het maximum aantal tokens dat is toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan retourneren (4096 - prompttokens). |
|
|
aanwezigheid_boete
|
presence_penalty | number |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
|
|
frequency_penalty (frequentiebestraffing)
|
frequency_penalty | number |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
|
|
logitsvertekening
|
logit_bias | object |
Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een json-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. |
|
|
user
|
user | string |
Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren. |
Retouren
Het antwoord van de uitbreidingschat is voltooid.
Hiermee maakt u een voltooiing voor het chatbericht
Hiermee maakt u een voltooiing voor het chatbericht
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
Implementatie-id van het geïmplementeerde model
|
deployment-id | True | string |
Implementatie-id van het geïmplementeerde model |
|
API-versie
|
api-version | True | string |
API-versie |
|
temperatuur
|
temperature | number |
Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt.
Over het algemeen raden we u aan dit of |
|
|
top_p
|
top_p | number |
Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd.
Over het algemeen raden we u aan dit of |
|
|
beek
|
stream | boolean |
Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een |
|
|
stop
|
stop | array of string |
Maximaal vier reeksen waarbij de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat niet de stopvolgorde. |
|
|
maximaal_aantal_tokens
|
max_tokens | integer |
Het maximum aantal tokens dat is toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan retourneren (4096 - prompttokens). |
|
|
aanwezigheid_boete
|
presence_penalty | number |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten. |
|
|
frequency_penalty (frequentiebestraffing)
|
frequency_penalty | number |
Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt. |
|
|
logitsvertekening
|
logit_bias | object |
Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een json-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token. |
|
|
user
|
user | string |
Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren. |
|
|
rol
|
role | True | string |
De rol van de auteur van berichten. |
|
inhoud
|
content | True | string |
Een matrix met inhoudsonderdelen met een gedefinieerd type, elk kan van het type |
|
type
|
type | True | string |
Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI. |
|
top_n_documenten
|
top_n_documents | integer |
Het geconfigureerde bovenste aantal documenten dat moet worden aanbevolen voor de geconfigureerde query. |
|
|
in_scope
|
in_scope | boolean |
Of query's moeten worden beperkt tot het gebruik van geïndexeerde gegevens. |
|
|
strictness
|
strictness | integer |
De geconfigureerde striktheid van het filteren op zoekrelevantie. Hoe strikter, hoe hoger de precisie, maar een lagere terugroeping van het antwoord. |
|
|
rol_informatie
|
role_information | string |
Geef het model instructies over hoe het zich moet gedragen en eventuele context waarnaar wordt verwezen bij het genereren van een antwoord. U kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe u antwoorden kunt opmaken. Er is een limiet van 100 token voor deze limiet en deze geldt voor de totale tokenlimiet. |
|
|
indexnaam
|
index_name | True | string |
De naam van de index die moet worden gebruikt als beschikbaar in de Azure Search-resource waarnaar wordt verwezen. |
|
titel_veld
|
title_field | string |
De naam van het indexveld dat moet worden gebruikt als titel. |
|
|
URL-veld
|
url_field | string |
De naam van het indexveld dat moet worden gebruikt als URL. |
|
|
bestandspad_veld
|
filepath_field | string |
De naam van het indexveld dat moet worden gebruikt als bestandspad. |
|
|
inhoudsvelden
|
content_fields | array of string |
De namen van indexvelden die als inhoud moeten worden behandeld. |
|
|
inhoud_velden_scheidingsteken
|
content_fields_separator | string |
Het scheidingsteken dat inhoudsvelden moeten gebruiken. |
|
|
vectorvelden
|
vector_fields | array of string |
De namen van velden die vectorgegevens vertegenwoordigen. |
|
|
vraagtype
|
query_type | string |
Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie. |
|
|
semantische_configuratie
|
semantic_configuration | string |
De aanvullende semantische configuratie voor de query. |
|
|
filter
|
filter | string |
Zoekfilter. |
|
|
type
|
type | string |
Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kan gebruiken om vectorisatie van gegevens te configureren voor gebruik met vectorzoekopdrachten. |
|
|
deployement_naam
|
deployment_name | True | string |
Hiermee geeft u de naam op van de modelimplementatie die moet worden gebruikt voor vectorisatie. Deze modelimplementatie moet zich in dezelfde Azure OpenAI-resource bevinden, maar op uw gegevens wordt deze modelimplementatie gebruikt via een interne aanroep in plaats van een openbare, waardoor vectorzoekopdrachten zelfs in particuliere netwerken mogelijk zijn. |
|
n
|
n | integer |
Hoeveel opties voor het voltooien van chats voor elk invoerbericht moeten worden gegenereerd. |
|
|
seed
|
seed | integer |
Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde |
|
|
logprobs
|
logprobs | boolean |
Of u nu logboekkansen van de uitvoertokens wilt retourneren of niet. Indien waar, retourneert u de logboekkans van elk uitvoertoken dat wordt geretourneerd in de van |
|
|
top_logprobs
|
top_logprobs | integer |
Een geheel getal tussen 0 en 5 dat het aantal meest waarschijnlijke tokens aangeeft dat op elke tokenpositie moet worden geretourneerd, elk met een gekoppelde logboekkans.
|
|
|
type
|
type | string |
Instelling voor |
Retouren
Meerdere insluitingen ophalen
Vectorweergaven ophalen van een bepaalde matrix met invoer die eenvoudig kunnen worden gebruikt door machine learning-modellen en -algoritmen
Parameters
| Name | Sleutel | Vereist | Type | Description |
|---|---|---|---|---|
|
Implementatie-id van het geïmplementeerde model
|
deployment-id | True | string |
Implementatie-id van het geïmplementeerde model |
|
API-versie
|
api-version | True | string |
API-versie |
|
invoer
|
input | True | array of string |
Matrix van invoerteksten voor insluitingen voor, gecodeerd als een tekenreeks. Elke invoertekenreeks mag niet langer zijn dan 2048 tokens |
|
user
|
user | string |
Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren. |
|
|
type invoer
|
input_type | string |
Het invoertype voor het insluiten van zoekopdrachten die u wilt gebruiken. |
Retouren
Definities
Message
Een chatbericht.
| Name | Pad | Type | Description |
|---|---|---|---|
|
index
|
index | integer |
De index van het bericht in het gesprek. |
|
rol
|
role | string |
De rol van de auteur van dit bericht. |
|
ontvanger
|
recipient | string |
De ontvanger van het bericht in de indeling van <de naamruimte>.<bewerking>. Aanwezig als en alleen als de ontvanger een hulpmiddel is. |
|
inhoud
|
content | string |
De inhoud van het bericht |
|
end_turn
|
end_turn | boolean |
Of het bericht de beurt beëindigt. |
ExtensionsChatCompletionsResponse
Het antwoord van de uitbreidingschat is voltooid.
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string | |
|
Voorwerp
|
object | string | |
|
geschapen
|
created | integer | |
|
model
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Name | Pad | Type | Description |
|---|---|---|---|
|
index
|
index | integer | |
|
afsluitreden
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. |
|
messages
|
messages | array of Message |
De lijst met berichten die door de service worden geretourneerd. |
contentFilterResult
| Name | Pad | Type | Description |
|---|---|---|---|
|
severity
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet.
| Name | Pad | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
fout
|
error | errorBase |
promptfilterresultaat
Resultaten van het filteren van inhoud voor één prompt in de aanvraag.
| Name | Pad | Type | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. |
promptfilterresultaten
Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.
| Name | Pad | Type | Description |
|---|---|---|---|
|
Artikelen
|
promptFilterResult |
Resultaten van het filteren van inhoud voor één prompt in de aanvraag. |
errorBase
| Name | Pad | Type | Description |
|---|---|---|---|
|
code
|
code | string | |
|
message
|
message | string |
errorBase_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
code
|
code | string | |
|
message
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
licentie
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
| Name | Pad | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
fout
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over tekst van derden en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.
| Name | Pad | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
fout
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Resultaten van het filteren van inhoud voor één prompt in de aanvraag.
| Name | Pad | Type | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. |
promptFilterResults_2024Feb15Preview
Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.
| Name | Pad | Type | Description |
|---|---|---|---|
|
Artikelen
|
promptFilterResult_2024Feb15Preview |
Resultaten van het filteren van inhoud voor één prompt in de aanvraag. |
azureChatExtensionsMessageContext_2024Feb15Preview
Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chatvoltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer u een Azure OpenAI-aanvraag gebruikt die is geconfigureerd voor het gebruik van een overeenkomende extensie.
| Name | Pad | Type | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
Het resultaat van het ophalen van de gegevensbron, dat wordt gebruikt om het assistentbericht in het antwoord te genereren. |
|
bedoeling
|
intent | string |
De gedetecteerde intentie uit de chatgeschiedenis, die wordt gebruikt om door te geven aan de volgende beurt om de context over te dragen. |
citation_2024Feb15Preview
Bronvermeldingsinformatie voor een antwoordbericht over het voltooien van een chat.
| Name | Pad | Type | Description |
|---|---|---|---|
|
inhoud
|
content | string |
De inhoud van de bronvermelding. |
|
title
|
title | string |
De titel van de bronvermelding. |
|
url
|
url | string |
De URL van de bronvermelding. |
|
filepath
|
filepath | string |
Het bestandspad van de bronvermelding. |
|
chunk_id
|
chunk_id | string |
De segment-id van de bronvermelding. |
createChatCompletionResponse_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
identiteitskaart
|
id | string |
Een unieke id voor het voltooien van de chat. |
|
Voorwerp
|
object | chatCompletionResponseObject_2024Feb15Preview |
Het objecttype. |
|
geschapen
|
created | integer |
De Unix-tijdstempel (in seconden) van het moment waarop de chat is voltooid. |
|
model
|
model | string |
Het model dat wordt gebruikt voor het voltooien van de chat. |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Gebruiksstatistieken voor de voltooiingsaanvraag. |
|
system_fingerprint
|
system_fingerprint | string |
Kan worden gebruikt in combinatie met de |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
afsluitreden
|
choices.finish_reason | string | |
|
message
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Een chatvoltooiingsbericht gegenereerd door het model. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over tekst van derden en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Logboekinformatie over waarschijnlijkheid voor de keuze. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Logboekinformatie over waarschijnlijkheid voor de keuze.
| Name | Pad | Type | Description |
|---|---|---|---|
|
inhoud
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Een lijst met berichteninhoudstokens met informatie over logboekkans. |
chatCompletionTokenLogprob_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
token
|
token | string |
Het token. |
|
logprob
|
logprob | number |
De logboekkans van dit token. |
|
bytes
|
bytes | array of integer |
Een lijst met gehele getallen die de UTF-8 bytes vertegenwoordigen van het token. Handig in gevallen waarin tekens worden vertegenwoordigd door meerdere tokens en hun byteweergaven moeten worden gecombineerd om de juiste tekstweergave te genereren. Dit kan zijn |
|
top_logprobs
|
top_logprobs | array of object |
Lijst met de meest waarschijnlijke tokens en hun logboekkans, op deze tokenpositie. In zeldzame gevallen kan er minder zijn dan het aantal aangevraagde |
|
token
|
top_logprobs.token | string |
Het token. |
|
logprob
|
top_logprobs.logprob | number |
De logboekkans van dit token. |
|
bytes
|
top_logprobs.bytes | array of integer |
Een lijst met gehele getallen die de UTF-8 bytes vertegenwoordigen van het token. Handig in gevallen waarin tekens worden vertegenwoordigd door meerdere tokens en hun byteweergaven moeten worden gecombineerd om de juiste tekstweergave te genereren. Dit kan zijn |
chatCompletionResponseMessage_2024Feb15Preview
Een chatvoltooiingsbericht gegenereerd door het model.
| Name | Pad | Type | Description |
|---|---|---|---|
|
rol
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
De rol van de auteur van het antwoordbericht. |
|
inhoud
|
content | string |
De inhoud van het bericht. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chatvoltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer u een Azure OpenAI-aanvraag gebruikt die is geconfigureerd voor het gebruik van een overeenkomende extensie. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Gebruiksstatistieken voor de voltooiingsaanvraag.
| Name | Pad | Type | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Aantal tokens in de prompt. |
|
completion_tokens
|
completion_tokens | integer |
Aantal tokens in de gegenereerde voltooiing. |
|
total_tokens
|
total_tokens | integer |
Het totale aantal tokens dat wordt gebruikt in de aanvraag (prompt + voltooiing). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
Voorwerp
|
object | string |
Details van het antwoordobjecttype |
|
model
|
model | string |
De modelnaam |
|
embedding
|
embedding | array of number |
Een matrix met floats die de berekende insluitingen voor de opgegeven invoer vertegenwoordigen |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Het aantal tokens dat wordt gebruikt in de invoer |
|
total_tokens
|
usage.total_tokens | integer |
Het totale aantal gebruikte tokens |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Name | Pad | Type | Description |
|---|---|---|---|
|
Voorwerp
|
object | string |
Details van het antwoordobjecttype |
|
model
|
model | string |
De modelnaam |
|
embeddings
|
embeddings | array of array |
Een matrix met matrices van floats die de berekende insluitingen van de invoerreeksverzameling vertegenwoordigen |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Het aantal tokens dat wordt gebruikt in de invoer |
|
total_tokens
|
usage.total_tokens | integer |
Het totale aantal gebruikte tokens |