Partager via


Inférence Azure AI Foundry

Il s’agit d’une spécification Swagger de première partie pour les modèles Azure AI Foundry, spécifiquement conçus pour les tâches d’achèvement de conversation. Il prend actuellement en charge uniquement le point de terminaison de saisie semi-automatique de conversation.

Ce connecteur est disponible dans les produits et régions suivants :

Service classe Régions
Copilot Studio Norme Toutes les régions Power Automate
Applications logiques Norme Toutes les régions Logic Apps
Power Apps Norme Toutes les régions Power Apps
Power Automate Norme Toutes les régions Power Automate
Contact
Nom Microsoft
URL https://support.microsoft.com/
Messagerie électronique abapi@microsoft.com
Métadonnées du connecteur
Éditeur Microsoft
Site web https://learn.microsoft.com/en-us/azure/ai-foundry/
Politique de confidentialité https://privacy.microsoft.com/en-us/privacystatement
Catégories AI

Création d’une connexion

Le connecteur prend en charge les types d’authentification suivants :

Par défaut Paramètres de création de connexion. Toutes les régions Partageable

Faire défaut

Applicable : Toutes les régions

Paramètres de création de connexion.

Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs

Nom Type Descriptif Obligatoire
URI cible ficelle Spécifier le point de terminaison d’inférence pour le modèle Foundry Vrai
Clé d’API securestring Clé API pour ce point de terminaison d’inférence de modèle Vrai
Nom du déploiement de modèle ficelle Spécifiez le nom du déploiement du modèle Foundry
Nom du modèle de base ficelle Spécifier le nom du modèle de base pour le modèle Foundry

Limitations

Nom Appels Période de renouvellement
Appels d’API par connexion 5000 60 secondes

Actions

Créer une saisie semi-automatique de conversation

Génère une saisie semi-automatique pour une conversation, en fonction des messages fournis et de la configuration du modèle.

Créer une saisie semi-automatique de conversation

Génère une saisie semi-automatique pour une conversation, en fonction des messages fournis et de la configuration du modèle.

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version string

Version de l’API à utiliser pour ce point de terminaison de saisie semi-automatique de conversation de modèle.

role
role string

Rôle de l’expéditeur du message (par exemple, « utilisateur », « Assistant »).

contenu
content object
température
temperature float

Température d’échantillonnage à utiliser, entre 0 et 1. Les valeurs supérieures rendent la sortie plus aléatoire.

top_p
top_p float

Paramètre d’échantillonnage top-p, compris entre 0 et 1.

nombre_maximal_de_tokens
max_tokens integer

Nombre maximal de jetons à générer dans la réponse.

model
model string

Nom du déploiement du modèle.

Retours

Définitions

Choix

Nom Chemin d’accès Type Description
content_filter_results
content_filter_results object

Résultats du filtre de contenu appliqué à la réponse.

finish_reason
finish_reason string

Raison pour laquelle le modèle a cessé de générer d’autres jetons. Les valeurs possibles incluent « stop », « length », « content_filter », etc.

index
index integer

Index de ce choix dans l’ensemble généré d’achèvements.

logprobs
logprobs string

Journaliser les probabilités associées à chaque jeton dans la réponse (si demandé).

contenu
message.content string

Contenu du message généré dans la conversation. Il s’agit de la réponse à la requête NL de l’utilisateur.

refusal
message.refusal string

Si le modèle refuse de générer un message, ce champ décrit le refus.

role
message.role string

Rôle de l’expéditeur du message (par exemple, « utilisateur », « Assistant »).

PromptFilterResult

Nom Chemin d’accès Type Description
prompt_index
prompt_index integer

Index de l’invite dans l’entrée d’origine.

content_filter_results
content_filter_results object

Métadonnées de filtre de contenu appliquées à l’invite.

CompletionTokensDetails

Détails sur l’utilisation des jetons pour l’achèvement.

Nom Chemin d’accès Type Description
accepted_prediction_tokens
accepted_prediction_tokens integer

Nombre de jetons acceptés comme prédictions valides pour la réponse.

jetons_de_raisonnement
reasoning_tokens integer

Nombre de jetons utilisés pour le processus de raisonnement du modèle.

rejected_prediction_tokens
rejected_prediction_tokens integer

Nombre de jetons rejetés pendant le processus de prédiction.

PromptTokensDetails

Détails sur les jetons utilisés dans l’invite.

Nom Chemin d’accès Type Description
cached_tokens
cached_tokens integer

Nombre de jetons mis en cache et réutilisés pour l’invite.

Usage

Détails de l’utilisation des jetons pour la demande, y compris les jetons d’invite et d’achèvement.

Nom Chemin d’accès Type Description
completion_tokens
completion_tokens integer

Nombre de jetons consommés par la saisie semi-automatique.

completion_tokens_details
completion_tokens_details CompletionTokensDetails

Détails sur l’utilisation des jetons pour l’achèvement.

prompt_tokens
prompt_tokens integer

Nombre de jetons consommés par l’invite.

prompt_tokens_details
prompt_tokens_details PromptTokensDetails

Détails sur les jetons utilisés dans l’invite.

total_tokens
total_tokens integer

Nombre total de jetons consommés par la requête entière (invite + achèvement).

ChatCompletionResponse

Nom Chemin d’accès Type Description
choices
choices array of Choice

Liste des achèvements générés pour l’invite donnée.

pièce d'identité
id string

Identificateur unique de la demande de saisie semi-automatique de conversation.

model
model string

Modèle utilisé pour générer l’achèvement de la conversation.

prompt_filter_results
prompt_filter_results array of PromptFilterResult

Résultats du filtre de contenu pour chaque invite dans la requête.

usage
usage Usage

Détails de l’utilisation des jetons pour la demande, y compris les jetons d’invite et d’achèvement.