Azure OpenAI (préversion)
Intégrer facilement les fonctionnalités d’intelligence artificielle de pointe d’Azure OpenAI dans vos workflows
Ce connecteur est disponible dans les produits et régions suivants :
| Service | classe | Régions |
|---|---|---|
| Copilot Studio | Premium | Toutes les régions Power Automate , à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Applications logiques | Norme | Toutes les régions Logic Apps , à l’exception des suivantes : - Régions Azure Government - Régions Azure Chine - Us Department of Defense (DoD) |
| Power Apps | Premium | Toutes les régions Power Apps , à l’exception des suivantes : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Power Automate | Premium | Toutes les régions Power Automate , à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Contact | |
|---|---|
| Nom | Microsoft |
| URL | https://support.microsoft.com |
| Métadonnées du connecteur | |
|---|---|
| Éditeur | Microsoft |
| Site internet | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Politique de confidentialité | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Catégories | IA; Informatique décisionnelle |
Création d’une connexion
Le connecteur prend en charge les types d’authentification suivants :
| Clé API | Fournissez le nom de la ressource Azure OpenAI et la clé API pour accéder à votre instance Azure OpenAI qui héberge le modèle IA. | Toutes les régions | Partageable |
| Identités managées par applications logiques | Créer une connexion à l’aide d’une identité managée LogicApps | LOGICAPPS uniquement | Partageable |
| Valeur par défaut [DÉCONSEILLÉE] | Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante. | Toutes les régions | Non partageable |
Clé d’API
ID d’authentification : keyBasedAuth
Applicable : Toutes les régions
Fournissez le nom de la ressource Azure OpenAI et la clé API pour accéder à votre instance Azure OpenAI qui héberge le modèle IA.
Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Nom de la ressource Azure OpenAI | ficelle | Nom de la ressource Azure OpenAI qui héberge le modèle IA | Vrai |
| Clé API Azure OpenAI | securestring | Clé API permettant d’accéder à la ressource Azure OpenAI qui héberge le modèle IA | Vrai |
| URL du point de terminaison Recherche cognitive Azure | ficelle | URL du point de terminaison Recherche cognitive Azure indexant vos données | |
| Clé API Azure Cognitive Search | securestring | Clé API pour accéder au point de terminaison Recherche cognitive Azure indexant vos données |
Identité managée Logic Apps
ID d’authentification : managedIdentityAuth
Applicable : LOGICAPPS uniquement
Créer une connexion à l’aide d’une identité managée LogicApps
Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Identité managée LogicApps | managedIdentity | Se connecter avec une identité managée Logic Apps | Vrai |
| Nom de la ressource Azure OpenAI | ficelle | Nom de la ressource Azure OpenAI qui héberge le modèle IA | Vrai |
Valeur par défaut [DÉCONSEILLÉE]
Applicable : Toutes les régions
Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante.
Cette connexion n’est pas partageable. Si l’application power est partagée avec un autre utilisateur, un autre utilisateur est invité à créer une connexion explicitement.
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Nom de la ressource Azure OpenAI | ficelle | Nom de la ressource Azure OpenAI qui héberge le modèle IA | Vrai |
| Clé API Azure OpenAI | securestring | Clé API permettant d’accéder à la ressource Azure OpenAI qui héberge le modèle IA | Vrai |
| URL du point de terminaison Recherche cognitive Azure | ficelle | URL du point de terminaison Recherche cognitive Azure indexant vos données | |
| Clé API Azure Cognitive Search | securestring | Clé API pour accéder au point de terminaison Recherche cognitive Azure indexant vos données |
Limitations
| Nom | Appels | Période de renouvellement |
|---|---|---|
| Appels d’API par connexion | 1000 | 60 secondes |
Actions
| Crée un achèvement pour le message de conversation |
Crée un achèvement pour le message de conversation |
| Obtenir plusieurs incorporations |
Obtenir des représentations vectorielles d’un tableau d’entrées donné qui peuvent être facilement consommées par les modèles et algorithmes Machine Learning |
| Obtenir une incorporation |
Obtenir une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning |
| Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation |
Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation |
Crée un achèvement pour le message de conversation
Crée un achèvement pour le message de conversation
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
température
|
temperature | number |
Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou |
|
|
top_p
|
top_p | number |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou |
|
|
ruisseau
|
stream | boolean |
Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message |
|
|
stop
|
stop | array of string |
Jusqu’à 4 séquences dans lesquelles l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
|
|
nombre_maximal_de_tokens
|
max_tokens | integer |
Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). |
|
|
pénalité_de_presence
|
presence_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
|
|
frequency_penalty
|
frequency_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
|
|
logit_bias
|
logit_bias | object |
Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
|
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. |
|
|
role
|
role | True | string |
Rôle de l’auteur des messages. |
|
contenu
|
content | True | string |
Tableau de parties de contenu avec un type défini, chacun peut être de type |
|
type
|
type | True | string |
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
|
top_n_documents
|
top_n_documents | integer |
Nombre maximal configuré de documents à présenter pour la requête configurée. |
|
|
in_scope
|
in_scope | boolean |
Indique si les requêtes doivent être limitées à l’utilisation de données indexées. |
|
|
strictness
|
strictness | integer |
La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. |
|
|
informations_sur_le_rôle
|
role_information | string |
Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons. |
|
|
nom_de_l'index
|
index_name | True | string |
Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. |
|
champ_titre
|
title_field | string |
Nom du champ d’index à utiliser comme titre. |
|
|
url_field
|
url_field | string |
Nom du champ d’index à utiliser comme URL. |
|
|
filepath_field
|
filepath_field | string |
Nom du champ d’index à utiliser comme chemin d’accès au fichier. |
|
|
champs_de_contenu
|
content_fields | array of string |
Nom des champs d’index qui doivent être traités comme du contenu. |
|
|
séparateur_de_champs_de_contenu
|
content_fields_separator | string |
Modèle de séparation que les champs de contenu doivent utiliser. |
|
|
champs vectoriels
|
vector_fields | array of string |
Noms de champs qui représentent des données vectorielles. |
|
|
type_de_requête
|
query_type | string |
Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. |
|
|
configuration_sémantique
|
semantic_configuration | string |
La configuration sémantique supplémentaire pour la requête. |
|
|
Filter
|
filter | string |
Filtre de recherche. |
|
|
type
|
type | string |
Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
|
|
nom_de_déploiement
|
deployment_name | True | string |
Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. |
|
n
|
n | integer |
Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. |
|
|
seed
|
seed | integer |
S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes |
|
|
logprobs
|
logprobs | boolean |
Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le |
|
|
top_logprobs
|
top_logprobs | integer |
Entier compris entre 0 et 5 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée.
|
|
|
type
|
type | string |
Paramètre pour |
Retours
Obtenir plusieurs incorporations
Obtenir des représentations vectorielles d’un tableau d’entrées donné qui peuvent être facilement consommées par les modèles et algorithmes Machine Learning
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
saisie
|
input | True | array of string |
Tableau de textes d’entrée pour obtenir des incorporations pour, encodées sous forme de chaîne. Chaque chaîne d’entrée ne doit pas dépasser 2048 jetons de longueur |
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. |
|
|
input_type
|
input_type | string |
Type d’entrée de la recherche d’incorporation à utiliser. |
Retours
Obtenir une incorporation
Obtenir une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
saisie
|
input | True | string |
Texte d’entrée pour obtenir des incorporations pour, encodées sous forme de chaîne. La chaîne d’entrée ne doit pas dépasser 2048 jetons de longueur |
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. |
|
|
input_type
|
input_type | string |
Type d’entrée de la recherche d’incorporation à utiliser. |
Retours
Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation
Utilisation d’extensions pour créer une saisie semi-automatique pour les messages de conversation
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de déploiement du modèle déployé
|
deployment-id | True | string |
ID de déploiement du modèle déployé |
|
Confirmer l’ID de déploiement du modèle déployé
|
deploymentId | True | string |
Confirmer l’ID de déploiement du modèle déployé |
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
index
|
index | integer |
Index du message dans la conversation. |
|
|
role
|
role | True | string |
Rôle de l’auteur de ce message. |
|
destinataire
|
recipient | string |
Destinataire du message au format de l’espace de <noms>.<opération>. Présentez si et uniquement si le destinataire est un outil. |
|
|
contenu
|
content | True | string |
Contenu du message |
|
end_turn
|
end_turn | boolean |
Indique si le message termine le tour. |
|
|
type
|
type | True | string |
Type de source de données. |
|
parameters
|
parameters | object |
Paramètres à utiliser pour la source de données au moment de l’exécution. |
|
|
température
|
temperature | number |
Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou |
|
|
top_p
|
top_p | number |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou |
|
|
ruisseau
|
stream | boolean |
Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message |
|
|
stop
|
stop | array of string |
Taille minimale du tableau de 1 et maximale de 4 |
|
|
nombre_maximal_de_tokens
|
max_tokens | integer |
Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). |
|
|
pénalité_de_presence
|
presence_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
|
|
frequency_penalty
|
frequency_penalty | number |
Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
|
|
logit_bias
|
logit_bias | object |
Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
|
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. |
Retours
Réponse des achèvements de conversation des extensions.
Définitions
Message
Message de conversation.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
index
|
index | integer |
Index du message dans la conversation. |
|
role
|
role | string |
Rôle de l’auteur de ce message. |
|
destinataire
|
recipient | string |
Destinataire du message au format de l’espace de <noms>.<opération>. Présentez si et uniquement si le destinataire est un outil. |
|
contenu
|
content | string |
Contenu du message |
|
end_turn
|
end_turn | boolean |
Indique si le message termine le tour. |
ExtensionsChatCompletionsResponse
Réponse des achèvements de conversation des extensions.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string | |
|
objet
|
object | string | |
|
créé
|
created | integer | |
|
model
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
total_tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
index
|
index | integer | |
|
finish_reason
|
finish_reason | string | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. |
|
messages
|
messages | array of Message |
Liste des messages retournés par le service. |
contentFilterResult
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
severity
|
severity | string | |
|
filtered
|
filtered | boolean |
contentFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
violence
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
self_harm
|
self_harm | contentFilterResult | |
|
erreur
|
error | errorBase |
promptFilterResult
Résultats du filtrage de contenu pour un seul prompt dans la requête.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterResults |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. |
promptFilterResults
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
Objets
|
promptFilterResult |
Résultats du filtrage de contenu pour un seul prompt dans la requête. |
errorBase
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
code
|
code | string | |
|
Message
|
message | string |
errorBase_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
code
|
code | string | |
|
Message
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
filtered
|
filtered | boolean | |
|
detected
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
license
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string | |
|
filtered
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erreur
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
violence
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
self_harm
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
profanity
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
erreur
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Résultats du filtrage de contenu pour un seul prompt dans la requête.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
content_filter_results
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. |
promptFilterResults_2024Feb15Preview
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
Objets
|
promptFilterResult_2024Feb15Preview |
Résultats du filtrage de contenu pour un seul prompt dans la requête. |
azureChatExtensionsMessageContext_2024Feb15Preview
Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
citations
|
citations | array of citation_2024Feb15Preview |
Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. |
|
objectif
|
intent | string |
Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. |
citation_2024Feb15Preview
informations de citation pour un message de réponse des saisies semi-automatiques de conversation.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
contenu
|
content | string |
Contenu de la citation. |
|
title
|
title | string |
Titre de la citation. |
|
URL
|
url | string |
URL de la citation. |
|
chemin d’accès
|
filepath | string |
Chemin d’accès au fichier de la citation. |
|
identifiant_du_segment
|
chunk_id | string |
ID de bloc de la citation. |
createChatCompletionResponse_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur unique de la complétion de conversation. |
|
objet
|
object | chatCompletionResponseObject_2024Feb15Preview |
Type d’objet. |
|
créé
|
created | integer |
Horodatage Unix (en secondes) de la création de la complétion de conversation. |
|
model
|
model | string |
Modèle utilisé pour la complétion de conversation. |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Statistiques d’utilisation pour la demande d’achèvement. |
|
system_fingerprint
|
system_fingerprint | string |
Peut être utilisé avec le paramètre de requête |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
finish_reason
|
choices.finish_reason | string | |
|
Message
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Message de complétion de conversation généré par le modèle. |
|
content_filter_results
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Informations de probabilité logarithmique pour le choix. |
chatCompletionChoiceLogProbs_2024Feb15Preview
Informations de probabilité logarithmique pour le choix.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
contenu
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. |
chatCompletionTokenLogprob_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
token
|
token | string |
Jeton. |
|
logprob
|
logprob | number |
La probabilité logarithmique de ce jeton. |
|
Octets
|
bytes | array of integer |
Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être |
|
top_logprobs
|
top_logprobs | array of object |
Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de |
|
token
|
top_logprobs.token | string |
Jeton. |
|
logprob
|
top_logprobs.logprob | number |
La probabilité logarithmique de ce jeton. |
|
Octets
|
top_logprobs.bytes | array of integer |
Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être |
chatCompletionResponseMessage_2024Feb15Preview
Message de complétion de conversation généré par le modèle.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
role
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Le rôle de l’auteur du message de réponse. |
|
contenu
|
content | string |
Contenu du message. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Statistiques d’utilisation pour la demande d’achèvement.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Nombre de jetons dans l’invite. |
|
completion_tokens
|
completion_tokens | integer |
Nombre de jetons dans la complétion générée. |
|
total_tokens
|
total_tokens | integer |
Nombre total de jetons utilisés dans la requête (prompt + complétion). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
Détails du type d’objet response |
|
model
|
model | string |
Le nom du modèle |
|
embedding
|
embedding | array of number |
Tableau de floats qui représentent les incorporations calculées pour les entrées données |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Nombre de jetons utilisés dans l’entrée |
|
total_tokens
|
usage.total_tokens | integer |
Nombre total de jetons utilisés |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
Détails du type d’objet response |
|
model
|
model | string |
Le nom du modèle |
|
embeddings
|
embeddings | array of array |
Tableau avec tableaux de floats représentant les incorporations calculées de la collection de chaînes d’entrée |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Nombre de jetons utilisés dans l’entrée |
|
total_tokens
|
usage.total_tokens | integer |
Nombre total de jetons utilisés |