Partager via


Azure OpenAI (préversion)

Intégrer facilement les fonctionnalités d’intelligence artificielle de pointe d’Azure OpenAI dans vos workflows

Ce connecteur est disponible dans les produits et régions suivants :

Service classe Régions
Copilot Studio Premium Toutes les régions Power Automate , à l’exception des éléments suivants :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Applications logiques Norme Toutes les régions Logic Apps , à l’exception des suivantes :
     - Régions Azure Government
     - Régions Azure Chine
     - Us Department of Defense (DoD)
Power Apps Premium Toutes les régions Power Apps , à l’exception des suivantes :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Power Automate Premium Toutes les régions Power Automate , à l’exception des éléments suivants :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Contact
Nom Microsoft
URL https://support.microsoft.com
Métadonnées du connecteur
Éditeur Microsoft
Site internet https://azure.microsoft.com/en-us/products/cognitive-services/openai-service
Politique de confidentialité https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy
Catégories IA; Informatique décisionnelle

Création d’une connexion

Le connecteur prend en charge les types d’authentification suivants :

Clé API Fournissez le nom de la ressource Azure OpenAI et la clé API pour accéder à votre instance Azure OpenAI qui héberge le modèle IA. Toutes les régions Partageable
Identités managées par applications logiques Créer une connexion à l’aide d’une identité managée LogicApps LOGICAPPS uniquement Partageable
Valeur par défaut [DÉCONSEILLÉE] Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante. Toutes les régions Non partageable

Clé d’API

ID d’authentification : keyBasedAuth

Applicable : Toutes les régions

Fournissez le nom de la ressource Azure OpenAI et la clé API pour accéder à votre instance Azure OpenAI qui héberge le modèle IA.

Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs

Nom Type Descriptif Obligatoire
Nom de la ressource Azure OpenAI ficelle Nom de la ressource Azure OpenAI qui héberge le modèle IA Vrai
Clé API Azure OpenAI securestring Clé API permettant d’accéder à la ressource Azure OpenAI qui héberge le modèle IA Vrai
URL du point de terminaison Recherche cognitive Azure ficelle URL du point de terminaison Recherche cognitive Azure indexant vos données
Clé API Azure Cognitive Search securestring Clé API pour accéder au point de terminaison Recherche cognitive Azure indexant vos données

Identité managée Logic Apps

ID d’authentification : managedIdentityAuth

Applicable : LOGICAPPS uniquement

Créer une connexion à l’aide d’une identité managée LogicApps

Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs

Nom Type Descriptif Obligatoire
Identité managée LogicApps managedIdentity Se connecter avec une identité managée Logic Apps Vrai
Nom de la ressource Azure OpenAI ficelle Nom de la ressource Azure OpenAI qui héberge le modèle IA Vrai

Valeur par défaut [DÉCONSEILLÉE]

Applicable : Toutes les régions

Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante.

Cette connexion n’est pas partageable. Si l’application power est partagée avec un autre utilisateur, un autre utilisateur est invité à créer une connexion explicitement.

Nom Type Descriptif Obligatoire
Nom de la ressource Azure OpenAI ficelle Nom de la ressource Azure OpenAI qui héberge le modèle IA Vrai
Clé API Azure OpenAI securestring Clé API permettant d’accéder à la ressource Azure OpenAI qui héberge le modèle IA Vrai
URL du point de terminaison Recherche cognitive Azure ficelle URL du point de terminaison Recherche cognitive Azure indexant vos données
Clé API Azure Cognitive Search securestring Clé API pour accéder au point de terminaison Recherche cognitive Azure indexant vos données

Limitations

Nom Appels Période de renouvellement
Appels d’API par connexion 1000 60 secondes

Actions

Crée un achèvement pour le message de conversation

Crée un achèvement pour le message de conversation

Obtenir plusieurs incorporations

Obtenir des représentations vectorielles d’un tableau d’entrées donné qui peuvent être facilement consommées par les modèles et algorithmes Machine Learning

Obtenir une incorporation

Obtenir une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning

Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation

Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation

Crée un achèvement pour le message de conversation

Crée un achèvement pour le message de conversation

Paramètres

Nom Clé Obligatoire Type Description
ID de déploiement du modèle déployé
deployment-id True string

ID de déploiement du modèle déployé

Version de l’API
api-version True string

Version de l’API

température
temperature number

Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.

top_p
top_p number

Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.

ruisseau
stream boolean

Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE].

stop
stop array of string

Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.

nombre_maximal_de_tokens
max_tokens integer

Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite).

pénalité_de_presence
presence_penalty number

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.

frequency_penalty
frequency_penalty number

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.

logit_bias
logit_bias object

Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus.

role
role True string

Rôle de l’auteur des messages.

contenu
content True string

Tableau de parties de contenu avec un type défini, chacun peut être de type text.

type
type True string

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

top_n_documents
top_n_documents integer

Nombre maximal configuré de documents à présenter pour la requête configurée.

in_scope
in_scope boolean

Indique si les requêtes doivent être limitées à l’utilisation de données indexées.

strictness
strictness integer

La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse.

informations_sur_le_rôle
role_information string

Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons.

nom_de_l'index
index_name True string

Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée.

champ_titre
title_field string

Nom du champ d’index à utiliser comme titre.

url_field
url_field string

Nom du champ d’index à utiliser comme URL.

filepath_field
filepath_field string

Nom du champ d’index à utiliser comme chemin d’accès au fichier.

champs_de_contenu
content_fields array of string

Nom des champs d’index qui doivent être traités comme du contenu.

séparateur_de_champs_de_contenu
content_fields_separator string

Modèle de séparation que les champs de contenu doivent utiliser.

champs vectoriels
vector_fields array of string

Noms de champs qui représentent des données vectorielles.

type_de_requête
query_type string

Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

configuration_sémantique
semantic_configuration string

La configuration sémantique supplémentaire pour la requête.

Filter
filter string

Filtre de recherche.

type
type string

Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.

nom_de_déploiement
deployment_name True string

Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés.

n
n integer

Nombre d’options de complétion de conversation à générer pour chaque message d’entrée.

seed
seed integer

S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat. Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.

logprobs
logprobs boolean

Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. Cette option n’est actuellement pas disponible sur le gpt-4-vision-preview modèle.

top_logprobs
top_logprobs integer

Entier compris entre 0 et 5 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs devez être défini sur true si ce paramètre est utilisé.

type
type string

Paramètre pour json_object activer le mode JSON. Cela garantit que le message généré par le modèle est json valide.

Retours

Obtenir plusieurs incorporations

Obtenir des représentations vectorielles d’un tableau d’entrées donné qui peuvent être facilement consommées par les modèles et algorithmes Machine Learning

Paramètres

Nom Clé Obligatoire Type Description
ID de déploiement du modèle déployé
deployment-id True string

ID de déploiement du modèle déployé

Version de l’API
api-version True string

Version de l’API

saisie
input True array of string

Tableau de textes d’entrée pour obtenir des incorporations pour, encodées sous forme de chaîne. Chaque chaîne d’entrée ne doit pas dépasser 2048 jetons de longueur

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus.

input_type
input_type string

Type d’entrée de la recherche d’incorporation à utiliser.

Retours

Obtenir une incorporation

Obtenir une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning

Paramètres

Nom Clé Obligatoire Type Description
ID de déploiement du modèle déployé
deployment-id True string

ID de déploiement du modèle déployé

Version de l’API
api-version True string

Version de l’API

saisie
input True string

Texte d’entrée pour obtenir des incorporations pour, encodées sous forme de chaîne. La chaîne d’entrée ne doit pas dépasser 2048 jetons de longueur

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus.

input_type
input_type string

Type d’entrée de la recherche d’incorporation à utiliser.

Retours

Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation

Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation

Paramètres

Nom Clé Obligatoire Type Description
ID de déploiement du modèle déployé
deployment-id True string

ID de déploiement du modèle déployé

Confirmer l’ID de déploiement du modèle déployé
deploymentId True string

Confirmer l’ID de déploiement du modèle déployé

Version de l’API
api-version True string

Version de l’API

index
index integer

Index du message dans la conversation.

role
role True string

Rôle de l’auteur de ce message.

destinataire
recipient string

Destinataire du message au format de l’espace de <noms>.<opération>. Présentez si et uniquement si le destinataire est un outil.

contenu
content True string

Contenu du message

end_turn
end_turn boolean

Indique si le message termine le tour.

type
type True string

Type de source de données.

parameters
parameters object

Paramètres à utiliser pour la source de données au moment de l’exécution.

température
temperature number

Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.

top_p
top_p number

Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.

ruisseau
stream boolean

Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE].

stop
stop array of string

Taille minimale du tableau de 1 et maximale de 4

nombre_maximal_de_tokens
max_tokens integer

Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite).

pénalité_de_presence
presence_penalty number

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.

frequency_penalty
frequency_penalty number

Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.

logit_bias
logit_bias object

Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus.

Retours

Réponse des achèvements de conversation des extensions.

Définitions

Message

Message de conversation.

Nom Chemin d’accès Type Description
index
index integer

Index du message dans la conversation.

role
role string

Rôle de l’auteur de ce message.

destinataire
recipient string

Destinataire du message au format de l’espace de <noms>.<opération>. Présentez si et uniquement si le destinataire est un outil.

contenu
content string

Contenu du message

end_turn
end_turn boolean

Indique si le message termine le tour.

ExtensionsChatCompletionsResponse

Réponse des achèvements de conversation des extensions.

Nom Chemin d’accès Type Description
pièce d'identité
id string
objet
object string
créé
created integer
model
model string
prompt_filter_results
prompt_filter_results promptFilterResults

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

prompt_tokens
usage.prompt_tokens integer
completion_tokens
usage.completion_tokens integer
total_tokens
usage.total_tokens integer
choices
choices array of ExtensionsChatCompletionChoice

ExtensionsChatCompletionChoice

Nom Chemin d’accès Type Description
index
index integer
finish_reason
finish_reason string
content_filter_results
content_filter_results contentFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non.

messages
messages array of Message

Liste des messages retournés par le service.

contentFilterResult

Nom Chemin d’accès Type Description
severity
severity string
filtered
filtered boolean

contentFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non.

Nom Chemin d’accès Type Description
sexual
sexual contentFilterResult
violence
violence contentFilterResult
hate
hate contentFilterResult
self_harm
self_harm contentFilterResult
erreur
error errorBase

promptFilterResult

Résultats du filtrage de contenu pour un seul prompt dans la requête.

Nom Chemin d’accès Type Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non.

promptFilterResults

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

Nom Chemin d’accès Type Description
Objets
promptFilterResult

Résultats du filtrage de contenu pour un seul prompt dans la requête.

errorBase

Nom Chemin d’accès Type Description
code
code string
Message
message string

errorBase_2024Feb15Preview

Nom Chemin d’accès Type Description
code
code string
Message
message string

contentFilterSeverityResult_2024Feb15Preview

Nom Chemin d’accès Type Description
filtered
filtered boolean
severity
severity string

contentFilterDetectedResult_2024Feb15Preview

Nom Chemin d’accès Type Description
filtered
filtered boolean
detected
detected boolean

contentFilterDetectedWithCitationResult_2024Feb15Preview

Nom Chemin d’accès Type Description
filtered
filtered boolean
detected
detected boolean
URL
citation.URL string
license
citation.license string

contentFilterIdResult_2024Feb15Preview

Nom Chemin d’accès Type Description
pièce d'identité
id string
filtered
filtered boolean

contentFilterPromptResults_2024Feb15Preview

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Chemin d’accès Type Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
erreur
error errorBase_2024Feb15Preview
jailbreak
jailbreak contentFilterDetectedResult_2024Feb15Preview

contentFilterChoiceResults_2024Feb15Preview

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Chemin d’accès Type Description
sexual
sexual contentFilterSeverityResult_2024Feb15Preview
violence
violence contentFilterSeverityResult_2024Feb15Preview
hate
hate contentFilterSeverityResult_2024Feb15Preview
self_harm
self_harm contentFilterSeverityResult_2024Feb15Preview
profanity
profanity contentFilterDetectedResult_2024Feb15Preview
custom_blocklists
custom_blocklists array of contentFilterIdResult_2024Feb15Preview
erreur
error errorBase_2024Feb15Preview
protected_material_text
protected_material_text contentFilterDetectedResult_2024Feb15Preview
protected_material_code
protected_material_code contentFilterDetectedWithCitationResult_2024Feb15Preview

promptFilterResult_2024Feb15Preview

Résultats du filtrage de contenu pour un seul prompt dans la requête.

Nom Chemin d’accès Type Description
prompt_index
prompt_index integer
content_filter_results
content_filter_results contentFilterPromptResults_2024Feb15Preview

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

promptFilterResults_2024Feb15Preview

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

Nom Chemin d’accès Type Description
Objets
promptFilterResult_2024Feb15Preview

Résultats du filtrage de contenu pour un seul prompt dans la requête.

azureChatExtensionsMessageContext_2024Feb15Preview

Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.

Nom Chemin d’accès Type Description
citations
citations array of citation_2024Feb15Preview

Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse.

objectif
intent string

Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte.

citation_2024Feb15Preview

informations de citation pour un message de réponse des saisies semi-automatiques de conversation.

Nom Chemin d’accès Type Description
contenu
content string

Contenu de la citation.

title
title string

Titre de la citation.

URL
url string

URL de la citation.

chemin d’accès
filepath string

Chemin d’accès au fichier de la citation.

identifiant_du_segment
chunk_id string

ID de bloc de la citation.

createChatCompletionResponse_2024Feb15Preview

Nom Chemin d’accès Type Description
pièce d'identité
id string

Identificateur unique de la complétion de conversation.

objet
object chatCompletionResponseObject_2024Feb15Preview

Type d’objet.

créé
created integer

Horodatage Unix (en secondes) de la création de la complétion de conversation.

model
model string

Modèle utilisé pour la complétion de conversation.

usage
usage completionUsage_2024Feb15Preview

Statistiques d’utilisation pour la demande d’achèvement.

system_fingerprint
system_fingerprint string

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.

prompt_filter_results
prompt_filter_results promptFilterResults_2024Feb15Preview

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

choices
choices array of object
index
choices.index integer
finish_reason
choices.finish_reason string
Message
choices.message chatCompletionResponseMessage_2024Feb15Preview

Message de complétion de conversation généré par le modèle.

content_filter_results
choices.content_filter_results contentFilterChoiceResults_2024Feb15Preview

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

logprobs
choices.logprobs chatCompletionChoiceLogProbs_2024Feb15Preview

Informations de probabilité logarithmique pour le choix.

chatCompletionChoiceLogProbs_2024Feb15Preview

Informations de probabilité logarithmique pour le choix.

Nom Chemin d’accès Type Description
contenu
content array of chatCompletionTokenLogprob_2024Feb15Preview

Une liste des jetons de contenu de message avec des informations de probabilité logarithmique.

chatCompletionTokenLogprob_2024Feb15Preview

Nom Chemin d’accès Type Description
token
token string

Jeton.

logprob
logprob number

La probabilité logarithmique de ce jeton.

Octets
bytes array of integer

Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton.

top_logprobs
top_logprobs array of object

Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées.

token
top_logprobs.token string

Jeton.

logprob
top_logprobs.logprob number

La probabilité logarithmique de ce jeton.

Octets
top_logprobs.bytes array of integer

Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton.

chatCompletionResponseMessage_2024Feb15Preview

Message de complétion de conversation généré par le modèle.

Nom Chemin d’accès Type Description
role
role chatCompletionResponseMessageRole_2024Feb15Preview

Le rôle de l’auteur du message de réponse.

contenu
content string

Contenu du message.

context
context azureChatExtensionsMessageContext_2024Feb15Preview

Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.

chatCompletionResponseMessageRole_2024Feb15Preview

Le rôle de l’auteur du message de réponse.

Le rôle de l’auteur du message de réponse.

chatCompletionResponseObject_2024Feb15Preview

Type d’objet.

Type d’objet.

completionUsage_2024Feb15Preview

Statistiques d’utilisation pour la demande d’achèvement.

Nom Chemin d’accès Type Description
prompt_tokens
prompt_tokens integer

Nombre de jetons dans l’invite.

completion_tokens
completion_tokens integer

Nombre de jetons dans la complétion générée.

total_tokens
total_tokens integer

Nombre total de jetons utilisés dans la requête (prompt + complétion).

getSingleEmbeddingsResponse_2024Feb15Preview

Nom Chemin d’accès Type Description
objet
object string

Détails du type d’objet response

model
model string

Le nom du modèle

embedding
embedding array of number

Tableau de floats qui représentent les incorporations calculées pour les entrées données

prompt_tokens
usage.prompt_tokens integer

Nombre de jetons utilisés dans l’entrée

total_tokens
usage.total_tokens integer

Nombre total de jetons utilisés

getMultipleEmbeddingsResponse_2024Feb15Preview

Nom Chemin d’accès Type Description
objet
object string

Détails du type d’objet response

model
model string

Le nom du modèle

embeddings
embeddings array of array

Tableau avec tableaux de floats représentant les incorporations calculées de la collection de chaînes d’entrée

items
embeddings array of number
prompt_tokens
usage.prompt_tokens integer

Nombre de jetons utilisés dans l’entrée

total_tokens
usage.total_tokens integer

Nombre total de jetons utilisés