Delen via


Azure OpenAI (preview)

Eenvoudig de geavanceerde mogelijkheden voor kunstmatige intelligentie van Azure OpenAI integreren in uw werkstromen

Deze connector is beschikbaar in de volgende producten en regio's:

Dienst Class Regions
Copilot Studio Premium Alle Power Automate-regio's , met uitzondering van het volgende:
     - Amerikaanse overheid (GCC)
     - Amerikaanse overheid (GCC High)
     - China Cloud beheerd door 21Vianet
     - Us Department of Defense (DoD)
Logic-apps Standaard Alle Logic Apps-regio's , met uitzondering van het volgende:
     - Azure Government-regio's
     - Azure China-regio's
     - Us Department of Defense (DoD)
Power Apps Premium Alle Power Apps-regio's , met uitzondering van het volgende:
     - Amerikaanse overheid (GCC)
     - Amerikaanse overheid (GCC High)
     - China Cloud beheerd door 21Vianet
     - Us Department of Defense (DoD)
Power Automate Premium Alle Power Automate-regio's , met uitzondering van het volgende:
     - Amerikaanse overheid (GCC)
     - Amerikaanse overheid (GCC High)
     - China Cloud beheerd door 21Vianet
     - Us Department of Defense (DoD)
Contactpersoon
Naam Microsoft
URL https://support.microsoft.com
Connectormetagegevens
Uitgever Microsoft
Webpagina https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Privacybeleid https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Categorieën AI; Business Intelligence

Een verbinding maken

De connector ondersteunt de volgende verificatietypen:

API-sleutel Geef de azure OpenAI-resourcenaam en API-sleutel op voor toegang tot uw Azure OpenAI die als host fungeert voor het AI-model. Alle regio's Deelbaar
Beheerde identiteit van Logic Apps Een verbinding maken met behulp van een door LogicApps beheerde identiteit Alleen LOGICAPPS Deelbaar
Standaard [AFGESCHAFT] Deze optie is alleen bedoeld voor oudere verbindingen zonder expliciet verificatietype en is alleen beschikbaar voor compatibiliteit met eerdere versies. Alle regio's Niet deelbaar

API-sleutel

Verificatie-id: keyBasedAuth

Van toepassing: Alle regio's

Geef de azure OpenAI-resourcenaam en API-sleutel op voor toegang tot uw Azure OpenAI die als host fungeert voor het AI-model.

Dit is deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt de verbinding ook gedeeld. Zie het overzicht van connectors voor canvas-apps - Power Apps | Microsoft Docs

Naam Typologie Description Verplicht
Azure OpenAI-resourcenaam touw De naam van de Azure OpenAI-resource die als host fungeert voor het AI-model Klopt
Azure OpenAI API-sleutel beveiligde string De API-sleutel voor toegang tot de Azure OpenAI-resource die als host fungeert voor het AI-model Klopt
Azure Cognitive Search-eindpunt-URL touw De URL van het Azure Cognitive Search-eindpunt dat uw gegevens indexeert
Azure Cognitive Search-API-sleutel beveiligde string De API-sleutel voor toegang tot het Azure Cognitive Search-eindpunt dat uw gegevens indexeert

Beheerde identiteit van Logic Apps

Verificatie-id: managedIdentityAuth

Van toepassing: alleen LOGICAPPS

Een verbinding maken met behulp van een door LogicApps beheerde identiteit

Dit is deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt de verbinding ook gedeeld. Zie het overzicht van connectors voor canvas-apps - Power Apps | Microsoft Docs

Naam Typologie Description Verplicht
Beheerde identiteit van LogicApps managedIdentity Aanmelden met een beheerde identiteit van Logic Apps Klopt
Azure OpenAI-resourcenaam touw De naam van de Azure OpenAI-resource die als host fungeert voor het AI-model Klopt

Standaard [AFGESCHAFT]

Van toepassing: Alle regio's

Deze optie is alleen bedoeld voor oudere verbindingen zonder expliciet verificatietype en is alleen beschikbaar voor compatibiliteit met eerdere versies.

Dit is geen deelbare verbinding. Als de power-app wordt gedeeld met een andere gebruiker, wordt een andere gebruiker gevraagd om expliciet een nieuwe verbinding te maken.

Naam Typologie Description Verplicht
Azure OpenAI-resourcenaam touw De naam van de Azure OpenAI-resource die als host fungeert voor het AI-model Klopt
Azure OpenAI API-sleutel beveiligde string De API-sleutel voor toegang tot de Azure OpenAI-resource die als host fungeert voor het AI-model Klopt
Azure Cognitive Search-eindpunt-URL touw De URL van het Azure Cognitive Search-eindpunt dat uw gegevens indexeert
Azure Cognitive Search-API-sleutel beveiligde string De API-sleutel voor toegang tot het Azure Cognitive Search-eindpunt dat uw gegevens indexeert

Beperkingslimieten

Name Aanroepen Verlengingsperiode
API-aanroepen per verbinding 1000 60 seconden

Acties

Een insluiting ophalen

Een vectorweergave ophalen van een bepaalde invoer die eenvoudig kan worden gebruikt door machine learning-modellen en -algoritmen

Extensies gebruiken om een voltooiing voor chatberichten te maken

Extensies gebruiken om een voltooiing voor chatberichten te maken

Hiermee maakt u een voltooiing voor het chatbericht

Hiermee maakt u een voltooiing voor het chatbericht

Meerdere insluitingen ophalen

Vectorweergaven ophalen van een bepaalde matrix met invoer die eenvoudig kunnen worden gebruikt door machine learning-modellen en -algoritmen

Een insluiting ophalen

Een vectorweergave ophalen van een bepaalde invoer die eenvoudig kan worden gebruikt door machine learning-modellen en -algoritmen

Parameters

Name Sleutel Vereist Type Description
Implementatie-id van het geïmplementeerde model
deployment-id True string

Implementatie-id van het geïmplementeerde model

API-versie
api-version True string

API-versie

invoer
input True string

Invoertekst voor het ophalen van insluitingen voor, gecodeerd als een tekenreeks. Invoertekenreeks mag niet langer zijn dan 2048 tokens

user
user string

Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren.

type invoer
input_type string

Het invoertype voor het insluiten van zoekopdrachten die u wilt gebruiken.

Retouren

Extensies gebruiken om een voltooiing voor chatberichten te maken

Extensies gebruiken om een voltooiing voor chatberichten te maken

Parameters

Name Sleutel Vereist Type Description
Implementatie-id van het geïmplementeerde model
deployment-id True string

Implementatie-id van het geïmplementeerde model

Implementatie-id van het geïmplementeerde model bevestigen
deploymentId True string

Implementatie-id van het geïmplementeerde model bevestigen

API-versie
api-version True string

API-versie

index
index integer

De index van het bericht in het gesprek.

rol
role True string

De rol van de auteur van dit bericht.

ontvanger
recipient string

De ontvanger van het bericht in de indeling van <de naamruimte>.<bewerking>. Aanwezig als en alleen als de ontvanger een hulpmiddel is.

inhoud
content True string

De inhoud van het bericht

end_turn
end_turn boolean

Of het bericht de beurt beëindigt.

type
type True string

Het gegevensbrontype.

parameters
parameters object

De parameters die moeten worden gebruikt voor de gegevensbron in runtime.

temperatuur
temperature number

Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen.

top_p
top_p number

Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen.

beek
stream boolean

Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht.

stop
stop array of string

Minimale matrixgrootte van 1 en maximaal 4

maximaal_aantal_tokens
max_tokens integer

Het maximum aantal tokens dat is toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan retourneren (4096 - prompttokens).

aanwezigheid_boete
presence_penalty number

Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten.

frequency_penalty (frequentiebestraffing)
frequency_penalty number

Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt.

logitsvertekening
logit_bias object

Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een json-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token.

user
user string

Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren.

Retouren

Het antwoord van de uitbreidingschat is voltooid.

Hiermee maakt u een voltooiing voor het chatbericht

Hiermee maakt u een voltooiing voor het chatbericht

Parameters

Name Sleutel Vereist Type Description
Implementatie-id van het geïmplementeerde model
deployment-id True string

Implementatie-id van het geïmplementeerde model

API-versie
api-version True string

API-versie

temperatuur
temperature number

Welke steekproeftemperatuur moet worden gebruikt, tussen 0 en 2. Hogere waarden zoals 0,8 zorgen ervoor dat de uitvoer willekeuriger wordt, terwijl lagere waarden zoals 0,2 ervoor zorgen dat de uitvoer meer gericht en deterministisch wordt. Over het algemeen raden we u aan dit of top_p niet beide te wijzigen.

top_p
top_p number

Een alternatief voor steekproeven met temperatuur, zogenaamde kernsampling, waarbij het model rekening houdt met de resultaten van de tokens met top_p waarschijnlijkheidsmassa. 0,1 betekent dus dat alleen de tokens die de top 10% kansdichtheid omvatten, worden beschouwd. Over het algemeen raden we u aan dit of temperature niet beide te wijzigen.

beek
stream boolean

Als dit is ingesteld, worden gedeeltelijke berichtdelta's verzonden, zoals in ChatGPT. Tokens worden verzonden als door de server verzonden gegevens wanneer ze beschikbaar zijn, waarbij de stream wordt beëindigd door een data: [DONE] bericht.

stop
stop array of string

Maximaal vier reeksen waarbij de API stopt met het genereren van verdere tokens. De geretourneerde tekst bevat niet de stopvolgorde.

maximaal_aantal_tokens
max_tokens integer

Het maximum aantal tokens dat is toegestaan voor het gegenereerde antwoord. Standaard is het aantal tokens dat het model kan retourneren (4096 - prompttokens).

aanwezigheid_boete
presence_penalty number

Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van of ze tot nu toe worden weergegeven in de tekst, waardoor de kans op het model groter wordt om over nieuwe onderwerpen te praten.

frequency_penalty (frequentiebestraffing)
frequency_penalty number

Getal tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst, waardoor de kans dat het model dezelfde regelzin herhaalt, afneemt.

logitsvertekening
logit_bias object

Wijzig de kans dat opgegeven tokens worden weergegeven in de voltooiing. Accepteert een json-object waarmee tokens (opgegeven door de token-id in de tokenizer) worden toegewezen aan een gekoppelde bias-waarde van -100 tot 100. Wiskundig wordt de vooroordelen toegevoegd aan de logboeken die door het model worden gegenereerd voordat ze worden genomen. Het exacte effect verschilt per model, maar waarden tussen -1 en 1 moeten de kans op selectie verkleinen of vergroten; waarden zoals -100 of 100 moeten resulteren in een verbod of exclusieve selectie van het relevante token.

user
user string

Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren.

rol
role True string

De rol van de auteur van berichten.

inhoud
content True string

Een matrix met inhoudsonderdelen met een gedefinieerd type, elk kan van het type textzijn.

type
type True string

Een weergave van configuratiegegevens voor één Azure OpenAI-chatextensie. Dit wordt gebruikt door een aanvraag voor het voltooien van chats die azure OpenAI-chatextensies moeten gebruiken om het reactiegedrag te verbeteren. Het gebruik van deze configuratie is alleen compatibel met Azure OpenAI.

top_n_documenten
top_n_documents integer

Het geconfigureerde bovenste aantal documenten dat moet worden aanbevolen voor de geconfigureerde query.

in_scope
in_scope boolean

Of query's moeten worden beperkt tot het gebruik van geïndexeerde gegevens.

strictness
strictness integer

De geconfigureerde striktheid van het filteren op zoekrelevantie. Hoe strikter, hoe hoger de precisie, maar een lagere terugroeping van het antwoord.

rol_informatie
role_information string

Geef het model instructies over hoe het zich moet gedragen en eventuele context waarnaar wordt verwezen bij het genereren van een antwoord. U kunt de persoonlijkheid van de assistent beschrijven en vertellen hoe u antwoorden kunt opmaken. Er is een limiet van 100 token voor deze limiet en deze geldt voor de totale tokenlimiet.

indexnaam
index_name True string

De naam van de index die moet worden gebruikt als beschikbaar in de Azure Search-resource waarnaar wordt verwezen.

titel_veld
title_field string

De naam van het indexveld dat moet worden gebruikt als titel.

URL-veld
url_field string

De naam van het indexveld dat moet worden gebruikt als URL.

bestandspad_veld
filepath_field string

De naam van het indexveld dat moet worden gebruikt als bestandspad.

inhoudsvelden
content_fields array of string

De namen van indexvelden die als inhoud moeten worden behandeld.

inhoud_velden_scheidingsteken
content_fields_separator string

Het scheidingsteken dat inhoudsvelden moeten gebruiken.

vectorvelden
vector_fields array of string

De namen van velden die vectorgegevens vertegenwoordigen.

vraagtype
query_type string

Het type Azure Search-ophaalquery dat moet worden uitgevoerd wanneer u deze gebruikt als een Azure OpenAI-chatextensie.

semantische_configuratie
semantic_configuration string

De aanvullende semantische configuratie voor de query.

filter
filter string

Zoekfilter.

type
type string

Vertegenwoordigt de beschikbare bronnen die Azure OpenAI op uw gegevens kan gebruiken om vectorisatie van gegevens te configureren voor gebruik met vectorzoekopdrachten.

deployement_naam
deployment_name True string

Hiermee geeft u de naam op van de modelimplementatie die moet worden gebruikt voor vectorisatie. Deze modelimplementatie moet zich in dezelfde Azure OpenAI-resource bevinden, maar op uw gegevens wordt deze modelimplementatie gebruikt via een interne aanroep in plaats van een openbare, waardoor vectorzoekopdrachten zelfs in particuliere netwerken mogelijk zijn.

n
n integer

Hoeveel opties voor het voltooien van chats voor elk invoerbericht moeten worden gegenereerd.

seed
seed integer

Indien opgegeven, zal ons systeem een best inspanning leveren om de steekproef deterministisch uit te voeren, zodat herhaalde aanvragen met hetzelfde seed en parameters hetzelfde resultaat moeten retourneren. Determinisme is niet gegarandeerd en u moet verwijzen naar de system_fingerprint antwoordparameter om wijzigingen in de back-end te controleren.

logprobs
logprobs boolean

Of u nu logboekkansen van de uitvoertokens wilt retourneren of niet. Indien waar, retourneert u de logboekkans van elk uitvoertoken dat wordt geretourneerd in de van contentmessage. Deze optie is momenteel niet beschikbaar op het gpt-4-vision-preview model.

top_logprobs
top_logprobs integer

Een geheel getal tussen 0 en 5 dat het aantal meest waarschijnlijke tokens aangeeft dat op elke tokenpositie moet worden geretourneerd, elk met een gekoppelde logboekkans. logprobs moet worden ingesteld op true of deze parameter wordt gebruikt.

type
type string

Instelling voor json_object het inschakelen van de JSON-modus. Dit garandeert dat het bericht dat het model genereert geldige JSON is.

Retouren

Meerdere insluitingen ophalen

Vectorweergaven ophalen van een bepaalde matrix met invoer die eenvoudig kunnen worden gebruikt door machine learning-modellen en -algoritmen

Parameters

Name Sleutel Vereist Type Description
Implementatie-id van het geïmplementeerde model
deployment-id True string

Implementatie-id van het geïmplementeerde model

API-versie
api-version True string

API-versie

invoer
input True array of string

Matrix van invoerteksten voor insluitingen voor, gecodeerd als een tekenreeks. Elke invoertekenreeks mag niet langer zijn dan 2048 tokens

user
user string

Een unieke id die uw eindgebruiker vertegenwoordigt, waarmee Azure OpenAI misbruik kan bewaken en detecteren.

type invoer
input_type string

Het invoertype voor het insluiten van zoekopdrachten die u wilt gebruiken.

Retouren

Definities

Message

Een chatbericht.

Name Pad Type Description
index
index integer

De index van het bericht in het gesprek.

rol
role string

De rol van de auteur van dit bericht.

ontvanger
recipient string

De ontvanger van het bericht in de indeling van <de naamruimte>.<bewerking>. Aanwezig als en alleen als de ontvanger een hulpmiddel is.

inhoud
content string

De inhoud van het bericht

end_turn
end_turn boolean

Of het bericht de beurt beëindigt.

ExtensionsChatCompletionsResponse

Het antwoord van de uitbreidingschat is voltooid.

Name Pad Type Description
identiteitskaart
id string
Voorwerp
object string
geschapen
created integer
model
model string
prompt_filter_results
prompt_filter_results promptFilterResults

Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
total_tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensionsChatCompletionChoice

Name Pad Type Description
index
index integer
afsluitreden
finish_reason string
content_filter_results
content_filter_results contentFilterResults

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet.

messages
messages array of Message

De lijst met berichten die door de service worden geretourneerd.

contentFilterResult

Name Pad Type Description
severity
severity string
filtered
filtered boolean

contentFilterResults

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet.

Name Pad Type Description
sexual
sexual contentFilterResult
violence
violence contentFilterResult
hate
hate contentFilterResult
self_harm
self_harm contentFilterResult
fout
error errorBase

promptfilterresultaat

Resultaten van het filteren van inhoud voor één prompt in de aanvraag.

Name Pad Type Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterResults

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet.

promptfilterresultaten

Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.

Name Pad Type Description
Artikelen
promptFilterResult

Resultaten van het filteren van inhoud voor één prompt in de aanvraag.

errorBase

Name Pad Type Description
code
code string
message
message string

errorBase_2024Feb15Preview

Name Pad Type Description
code
code string
message
message string

contentFilterSeverityResult_2024Feb15Preview

Name Pad Type Description
filtered
filtered boolean
severity
severity string

contentFilterDetectedResult_2024Feb15Preview

Name Pad Type Description
filtered
filtered boolean
detected
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Name Pad Type Description
filtered
filtered boolean
detected
detected boolean
URL
citation.URL string
licentie
citation.license string

contentFilterIdResult_2024Feb15Preview

Name Pad Type Description
identiteitskaart
id string
filtered
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.

Name Pad Type Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
fout
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over tekst van derden en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.

Name Pad Type Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
fout
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Resultaten van het filteren van inhoud voor één prompt in de aanvraag.

Name Pad Type Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterPromptResults_2024Feb15Preview

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over jailbreak-inhoud en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.

promptFilterResults_2024Feb15Preview

Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.

Name Pad Type Description
Artikelen
promptFilterResult_2024Feb15Preview

Resultaten van het filteren van inhoud voor één prompt in de aanvraag.

azureChatExtensionsMessageContext_2024Feb15Preview

Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chatvoltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer u een Azure OpenAI-aanvraag gebruikt die is geconfigureerd voor het gebruik van een overeenkomende extensie.

Name Pad Type Description
citations
citations array of citation_2024Feb15Preview

Het resultaat van het ophalen van de gegevensbron, dat wordt gebruikt om het assistentbericht in het antwoord te genereren.

bedoeling
intent string

De gedetecteerde intentie uit de chatgeschiedenis, die wordt gebruikt om door te geven aan de volgende beurt om de context over te dragen.

citation_2024Feb15Preview

Bronvermeldingsinformatie voor een antwoordbericht over het voltooien van een chat.

Name Pad Type Description
inhoud
content string

De inhoud van de bronvermelding.

title
title string

De titel van de bronvermelding.

url
url string

De URL van de bronvermelding.

filepath
filepath string

Het bestandspad van de bronvermelding.

chunk_id
chunk_id string

De segment-id van de bronvermelding.

createChatCompletionResponse_2024Feb15Preview

Name Pad Type Description
identiteitskaart
id string

Een unieke id voor het voltooien van de chat.

Voorwerp
object chatCompletionResponseObject_2024Feb15Preview

Het objecttype.

geschapen
created integer

De Unix-tijdstempel (in seconden) van het moment waarop de chat is voltooid.

model
model string

Het model dat wordt gebruikt voor het voltooien van de chat.

usage
usage completionUsage_2024Feb15Preview

Gebruiksstatistieken voor de voltooiingsaanvraag.

system_fingerprint
system_fingerprint string

Kan worden gebruikt in combinatie met de seed aanvraagparameter om te begrijpen wanneer er back-endwijzigingen zijn aangebracht die van invloed kunnen zijn op determinisme.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

Resultaten van het filteren van inhoud voor nul of meer prompts in de aanvraag. In een streamingaanvraag kunnen de resultaten voor verschillende prompts op verschillende tijdstippen of in verschillende orders binnenkomen.

choices
choices array of object
index
choices.index integer
afsluitreden
choices.finish_reason string
message
choices.message chatCompletionResponseMessage_2024Feb15Preview

Een chatvoltooiingsbericht gegenereerd door het model.

content_filter_results
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Informatie over de inhoudsfiltercategorie (haat, seksueel, geweld, self_harm), als deze is gedetecteerd, evenals het ernstniveau (very_low, laag, gemiddeld, hoogschalig dat de intensiteit en het risiconiveau van schadelijke inhoud bepaalt) en of deze is gefilterd of niet. Informatie over tekst van derden en grof taalgebruik, als deze is gedetecteerd en of deze is gefilterd of niet. En informatie over de blokkeringslijst van klanten, als deze is gefilterd en de bijbehorende id.

logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Logboekinformatie over waarschijnlijkheid voor de keuze.

chatCompletionChoiceLogProbs_2024Feb15Preview

Logboekinformatie over waarschijnlijkheid voor de keuze.

Name Pad Type Description
inhoud
content array of chatCompletionTokenLogprob_2024Feb15Preview

Een lijst met berichteninhoudstokens met informatie over logboekkans.

chatCompletionTokenLogprob_2024Feb15Preview

Name Pad Type Description
token
token string

Het token.

logprob
logprob number

De logboekkans van dit token.

bytes
bytes array of integer

Een lijst met gehele getallen die de UTF-8 bytes vertegenwoordigen van het token. Handig in gevallen waarin tekens worden vertegenwoordigd door meerdere tokens en hun byteweergaven moeten worden gecombineerd om de juiste tekstweergave te genereren. Dit kan zijn null als er geen bytes-weergave voor het token is.

top_logprobs
top_logprobs array of object

Lijst met de meest waarschijnlijke tokens en hun logboekkans, op deze tokenpositie. In zeldzame gevallen kan er minder zijn dan het aantal aangevraagde top_logprobs geretourneerde aanvragen.

token
top_logprobs.token string

Het token.

logprob
top_logprobs.logprob number

De logboekkans van dit token.

bytes
top_logprobs.bytes array of integer

Een lijst met gehele getallen die de UTF-8 bytes vertegenwoordigen van het token. Handig in gevallen waarin tekens worden vertegenwoordigd door meerdere tokens en hun byteweergaven moeten worden gecombineerd om de juiste tekstweergave te genereren. Dit kan zijn null als er geen bytes-weergave voor het token is.

chatCompletionResponseMessage_2024Feb15Preview

Een chatvoltooiingsbericht gegenereerd door het model.

Name Pad Type Description
rol
role chatCompletionResponseMessageRole_2024Feb15Preview

De rol van de auteur van het antwoordbericht.

inhoud
content string

De inhoud van het bericht.

context
context azureChatExtensionsMessageContext_2024Feb15Preview

Een weergave van de aanvullende contextinformatie die beschikbaar is wanneer Azure OpenAI-chatextensies betrokken zijn bij het genereren van een overeenkomstig chatvoltooiingsantwoord. Deze contextinformatie wordt alleen ingevuld wanneer u een Azure OpenAI-aanvraag gebruikt die is geconfigureerd voor het gebruik van een overeenkomende extensie.

chatCompletionResponseMessageRole_2024Feb15Preview

De rol van de auteur van het antwoordbericht.

De rol van de auteur van het antwoordbericht.

chatCompletionResponseObject_2024Feb15Preview

Het objecttype.

Het objecttype.

completionUsage_2024Feb15Preview

Gebruiksstatistieken voor de voltooiingsaanvraag.

Name Pad Type Description
prompt_tokens
prompt_tokens integer

Aantal tokens in de prompt.

completion_tokens
completion_tokens integer

Aantal tokens in de gegenereerde voltooiing.

total_tokens
total_tokens integer

Het totale aantal tokens dat wordt gebruikt in de aanvraag (prompt + voltooiing).

getSingleEmbeddingsResponse_2024Feb15Preview

Name Pad Type Description
Voorwerp
object string

Details van het antwoordobjecttype

model
model string

De modelnaam

embedding
embedding array of number

Een matrix met floats die de berekende insluitingen voor de opgegeven invoer vertegenwoordigen

prompt_tokens
usage.prompt_tokens integer

Het aantal tokens dat wordt gebruikt in de invoer

total_tokens
usage.total_tokens integer

Het totale aantal gebruikte tokens

getMultipleEmbeddingsResponse_2024Feb15Preview

Name Pad Type Description
Voorwerp
object string

Details van het antwoordobjecttype

model
model string

De modelnaam

embeddings
embeddings array of array

Een matrix met matrices van floats die de berekende insluitingen van de invoerreeksverzameling vertegenwoordigen

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

Het aantal tokens dat wordt gebruikt in de invoer

total_tokens
usage.total_tokens integer

Het totale aantal gebruikte tokens