Service Azure AI Foundry Agent (préversion)
Intégrez facilement les fonctionnalités du service Azure AI Foundry Agent dans vos flux de travail.
Ce connecteur est disponible dans les produits et régions suivants :
| Service | classe | Régions |
|---|---|---|
| Copilot Studio | Premium | Toutes les régions Power Automate , à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Applications logiques | Norme | Toutes les régions Logic Apps , à l’exception des suivantes : - Régions Azure Government - Régions Azure Chine - Us Department of Defense (DoD) |
| Power Apps | Premium | Toutes les régions Power Apps , à l’exception des suivantes : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Power Automate | Premium | Toutes les régions Power Automate , à l’exception des éléments suivants : - Us Government (GCC) - Us Government (GCC High) - China Cloud géré par 21Vianet - Us Department of Defense (DoD) |
| Contact | |
|---|---|
| Nom | Microsoft |
| URL | https://support.microsoft.com |
| Métadonnées du connecteur | |
|---|---|
| Éditeur | Microsoft |
| Site internet | https://learn.microsoft.com/en-us/azure/ai-services/agents/ |
| Politique de confidentialité | https://learn.microsoft.com/en-us/legal/cognitive-services/agents/data-privacy-security |
| Catégories | IA; Informatique décisionnelle |
Création d’une connexion
Le connecteur prend en charge les types d’authentification suivants :
| Identités managées par applications logiques | Créer une connexion à l’aide d’une identité managée LogicApps | LOGICAPPS uniquement | Partageable |
| Connexion de l’utilisateur Microsoft Entra ID | Connexion avec les informations d’identification d’ID Microsoft Entra | Toutes les régions | Impossible à partager |
| Valeur par défaut [DÉCONSEILLÉE] | Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante. | Toutes les régions | Impossible à partager |
Identité managée Logic Apps
ID d’authentification : managedIdentityAuth
Applicable : LOGICAPPS uniquement
Créer une connexion à l’aide d’une identité managée LogicApps
Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Identité managée LogicApps | managedIdentity | Se connecter avec une identité managée Logic Apps | Vrai |
| Point de terminaison de projet Azure AI | ficelle | Nom du point de terminaison azure AI Project comme https://{account-name}.services.ai.azure.com/api/projects/{project-name} | Vrai |
Connexion de l’utilisateur Microsoft Entra ID
ID d’authentification : entraIDUserLogin
Applicable : Toutes les régions
Connexion avec les informations d’identification d’ID Microsoft Entra
Ce n’est pas une connexion partageable. Si l’application Power est partagée avec un autre utilisateur, un autre utilisateur sera invité à créer explicitement une nouvelle connexion.
| Nom | Type | Descriptif | Obligatoire |
|---|---|---|---|
| Point de terminaison de projet Azure AI | ficelle | Nom du point de terminaison azure AI Project comme https://{account-name}.services.ai.azure.com/api/projects/{project-name} | Vrai |
Valeur par défaut [DÉCONSEILLÉE]
Applicable : Toutes les régions
Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante.
Ce n’est pas une connexion partageable. Si l’application Power est partagée avec un autre utilisateur, un autre utilisateur sera invité à créer explicitement une nouvelle connexion.
Limitations
| Nom | Appels | Période de renouvellement |
|---|---|---|
| Appels d’API par connexion | 1000 | 60 secondes |
Actions
| Agents de liste |
Agents de liste |
| Appeler l’agent |
Appeler l’agent. |
| Créer un thread |
Créer un thread |
| Créer une exécution |
Créer une exécution |
| Protocole d’activité de l’agent externe basé sur l’application |
Protocole d’activité de l’agent externe basé sur l’application |
| Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent |
Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent |
| Répertorier les messages |
Répertorier les messages |
| S’enfuir |
S’enfuir |
Agents de liste
Agents de liste
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Version de l’API
|
api-version | True | string |
Version de l’API |
Retours
- Corps
- listAgentsResponse
Appeler l’agent
Appeler l’agent.
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
|
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. En savoir plus. |
|
|
top_logprobs
|
top_logprobs | integer |
Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée. |
|
|
previous_response_id
|
previous_response_id | string |
ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. En savoir plus sur l’état de conversation. |
|
|
background
|
background | boolean |
Indique s’il faut exécuter la réponse du modèle en arrière-plan. En savoir plus. |
|
|
max_output_tokens
|
max_output_tokens | integer |
Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement. |
|
|
max_tool_calls
|
max_tool_calls | integer |
Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. |
|
|
type
|
type | True | string |
Objet spécifiant le format que le modèle doit générer. La configuration Le format par défaut n’est Non recommandé pour les modèles gpt-4o et versions ultérieures : Configurer |
|
type
|
type | True | string |
Outil qui peut être utilisé pour générer une réponse. |
|
tool_choice
|
tool_choice |
Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le |
||
|
pièce d'identité
|
id | True | string |
Identificateur unique du modèle d’invite à utiliser. |
|
version
|
version | string |
Version facultative du modèle d’invite. |
|
|
variables
|
variables | object |
Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers. |
|
|
truncation
|
truncation | string |
Stratégie de troncation à utiliser pour la réponse du modèle.
|
|
|
saisie
|
input |
Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Pour en savoir plus: |
||
|
inclure
|
include | string |
Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
|
|
|
parallel_tool_calls
|
parallel_tool_calls | boolean |
Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
|
|
store
|
store | boolean |
Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. |
|
|
instructions
|
instructions | string |
Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec |
|
|
type
|
type | True | string | |
|
nom
|
name | True | string |
Nom de l’agent. |
|
version
|
version | True | string |
Identificateur de version de l’agent. |
Retours
- Corps
- OpenAI.Response
Créer un thread
Créer un thread
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
role
|
role | string |
Rôle de l’entité qui crée le message. Peut être un utilisateur ou un assistant. « utilisateur » indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur. 'assistant' indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
|
|
contenu
|
content | string |
Contenu du message. |
|
|
nom
|
name | string |
Liste des ID de fichier ou des messages qui peuvent être utilisés dans l’exécution. |
|
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
|
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
|
|
tool_resources
|
tool_resources | object |
Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
Retours
- Corps
- createThreadResponse
Créer une exécution
Créer une exécution
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
ID du thread pour lequel créer un message.
|
ThreadId | True | string |
ID du thread pour lequel créer un message. |
|
assistant_id
|
assistant_id | True | string |
ID de l’assistant à utiliser pour cette exécution. |
|
model
|
model | string |
Nom du déploiement du modèle à utiliser pour exécuter cette exécution. S’il est fourni, il remplace le nom de déploiement du modèle de l’Assistant. |
|
|
instructions
|
instructions | string |
Remplace les instructions de l’assistant. Utile pour modifier le comportement par exécution. |
|
|
additional_instructions
|
additional_instructions | string |
Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. |
|
|
role
|
role | string |
Rôle de l’entité qui crée le message. Peut être un utilisateur ou un assistant. « utilisateur » indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur. 'assistant' indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
|
|
contenu
|
content | string |
Contenu du message. |
|
|
nom
|
name | string |
Liste des ID de fichier ou des messages qui peuvent être utilisés dans l’exécution. |
|
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
|
|
nom
|
name | string |
Liste des outils qui peuvent être utilisés dans l’exécution. |
|
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur attachées à un objet. Longueur maximale des clés : 64 caractères, Longueur maximale des valeurs : 512 caractères. |
|
|
température
|
temperature | number |
Température d’échantillonnage (0-2). Les valeurs supérieures (par exemple, 0,8) augmentent la randomité, les valeurs inférieures (par exemple, 0,2) rendent la sortie plus déterministe. |
|
|
top_p
|
top_p | number |
L’échantillonnage du noyau est une alternative à la température. 0,1 signifie que la masse de probabilité supérieure de 10% est considérée. |
|
|
ruisseau
|
stream | boolean |
Si la valeur est true, retourne un flux d’événements pendant l’exécution en tant qu’événements envoyés par le serveur, en terminant par un message « data : [DONE] ». |
|
|
max_prompt_tokens
|
max_prompt_tokens | integer |
Nombre maximal de jetons d’achèvement qui peuvent être utilisés sur l’exécution. Si elle est dépassée, l’exécution se termine comme incomplète. |
|
|
max_completion_tokens
|
max_completion_tokens | integer |
Nombre maximal de jetons d’achèvement qui peuvent être utilisés sur l’exécution. Si elle est dépassée, l’exécution se termine comme incomplète. |
|
|
truncation_strategy
|
truncation_strategy | object |
Contrôle la façon dont un thread est tronqué avant l’exécution pour gérer la fenêtre de contexte initiale. |
|
|
tool_choice
|
tool_choice | object |
Contrôle l’outil qui appelle le modèle. La valeur par défaut est « automatique », ce qui permet au modèle de décider. Peut être défini sur « none » pour désactiver l’utilisation de l’outil. |
|
|
format_de_réponse
|
response_format | object |
Spécifie le format de sortie. Le paramètre { 'type' : 'json_object' } active le mode JSON pour les réponses JSON valides. |
Retours
- Corps
- createRunResponse
Protocole d’activité de l’agent externe basé sur l’application
Protocole d’activité de l’agent externe basé sur l’application
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Application agent.
|
MyApplication | True | string |
Application agent. |
|
|
object |
Retours
- response
- object
Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent
Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
ID de l’agent à envoyer un message.
|
AgentId | True | string |
ID de l’agent à envoyer un message. |
|
|
object |
Retours
- response
- object
Répertorier les messages
Répertorier les messages
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
ID du thread pour lequel créer un message.
|
ThreadId | True | string |
ID du thread pour lequel créer un message. |
Retours
- Corps
- listMessageResponse
S’enfuir
S’enfuir
Paramètres
| Nom | Clé | Obligatoire | Type | Description |
|---|---|---|---|---|
|
Version de l’API
|
api-version | True | string |
Version de l’API |
|
ID du thread pour lequel créer un message.
|
ThreadId | True | string |
ID du thread pour lequel créer un message. |
|
ID de l’exécution.
|
RunId | True | string |
ID de l’exécution. |
Retours
- Corps
- getRunResponse
Définitions
listAgentsResponse
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
Détails du type d’objet réponse. |
|
données
|
data | array of Data |
Liste des messages retournés par le service. |
|
premier_identifiant
|
first_id | string |
Détails du premier ID. |
|
last_id
|
last_id | string |
Détails du dernier ID. |
|
has_more
|
has_more | boolean |
Indique si d’autres agents sont là. |
createThreadResponse
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur, qui peut être référencé dans les points de terminaison d’API. |
|
objet
|
object | string |
Type d’objet, qui est toujours thread. |
|
date_de_création
|
created_at | integer |
L'horodatage Unix (en secondes) de la création du thread. |
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
createRunResponse
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur, qui peut être référencé dans les points de terminaison d’API. |
|
objet
|
object | string |
Type d’objet, qui est toujours thread.run. |
|
date_de_création
|
created_at | integer |
Horodatage Unix (en secondes) de la création de l’exécution. |
|
thread_id
|
thread_id | string |
ID du thread qui a été exécuté dans le cadre de cette exécution. |
|
assistant_id
|
assistant_id | string |
ID de l’assistant utilisé pour cette exécution. |
|
status
|
status | string |
État de l’exécution, qui peut être mis en file d’attente, in_progress, requires_action, annulation, annulation, annulation, échec, terminé ou expiré. |
|
required_action
|
required_action | object |
Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. |
|
dernière_erreur
|
last_error | object |
Dernière erreur associée à cette exécution. Est null s’il n’y a pas d’erreur. |
|
expires_at
|
expires_at | integer |
Horodatage Unix (en secondes) de l’expiration de l’exécution. |
|
started_at
|
started_at | integer |
Horodatage Unix (en secondes) du démarrage de l’exécution. |
|
cancelled_at
|
cancelled_at | integer |
Horodatage Unix (en secondes) pour l’annulation de l’exécution. |
|
failed_at
|
failed_at | integer |
Horodatage Unix (en secondes) de l’échec de l’exécution. |
|
terminé_à
|
completed_at | integer |
Horodatage Unix (en secondes) de la fin de l’exécution. |
|
model
|
model | string |
Nom du déploiement du modèle utilisé par l’Assistant pour cette exécution. |
|
instructions
|
instructions | string |
Instructions utilisées par l’assistant pour cette exécution. |
|
outils
|
tools | array of tools |
Liste des outils utilisés par l’assistant pour cette exécution. |
|
identifiants_de_fichiers
|
file_ids | array of fileIds |
Liste des ID de fichier utilisés pour cette exécution. |
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Les clés peuvent être d’un maximum de 64 caractères, et les valeurs peuvent avoir un maximum de 512 caractères. |
|
tool_choice
|
tool_choice | object |
Contrôle l’outil (le cas échéant) appelé par le modèle. « aucun » signifie que le modèle n’appelle pas d’outils et génère plutôt un message. « auto » signifie que le modèle peut choisir entre générer un message ou appeler un outil. Spécification d’un outil tel que {'type' : 'file_search'} ou {'type' : 'function', 'function' : {'name' : 'my_function'}} force le modèle à appeler cet outil. |
|
max_prompt_tokens
|
max_prompt_tokens | number |
Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution. |
|
max_completion_tokens
|
max_completion_tokens | number |
Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution. |
|
usage
|
usage | object |
Statistiques d’utilisation relatives à l’exécution. Cette valeur est null si l’exécution n’est pas dans un état terminal (par exemple, in_progress, mise en file d’attente). |
|
truncation_strategy
|
truncation_strategy | object |
Contrôle la façon dont un thread est tronqué avant l’exécution. |
|
format_de_réponse
|
response_format | string |
Format que le modèle doit générer. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106. |
getRunResponse
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur, qui peut être référencé dans les points de terminaison d’API. |
|
objet
|
object | string |
Type d’objet, qui est toujours thread.run. |
|
date_de_création
|
created_at | integer |
Horodatage Unix (en secondes) de la création de l’exécution. |
|
thread_id
|
thread_id | string |
ID du thread qui a été exécuté dans le cadre de cette exécution. |
|
assistant_id
|
assistant_id | string |
ID de l’assistant utilisé pour cette exécution. |
|
status
|
status | string |
État de l’exécution, qui peut être mis en file d’attente, in_progress, requires_action, annulation, annulation, annulation, échec, terminé ou expiré. |
|
required_action
|
required_action | object |
Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. |
|
dernière_erreur
|
last_error | object |
Dernière erreur associée à cette exécution. Est null s’il n’y a pas d’erreur. |
|
expires_at
|
expires_at | integer |
Horodatage Unix (en secondes) de l’expiration de l’exécution. |
|
started_at
|
started_at | integer |
Horodatage Unix (en secondes) du démarrage de l’exécution. |
|
cancelled_at
|
cancelled_at | integer |
Horodatage Unix (en secondes) pour l’annulation de l’exécution. |
|
failed_at
|
failed_at | integer |
Horodatage Unix (en secondes) de l’échec de l’exécution. |
|
terminé_à
|
completed_at | integer |
Horodatage Unix (en secondes) de la fin de l’exécution. |
|
model
|
model | string |
Nom du déploiement du modèle utilisé par l’Assistant pour cette exécution. |
|
instructions
|
instructions | string |
Instructions utilisées par l’assistant pour cette exécution. |
|
outils
|
tools | array of tools |
Liste des outils utilisés par l’assistant pour cette exécution. |
|
identifiants_de_fichiers
|
file_ids | array of fileIds |
Liste des ID de fichier utilisés pour cette exécution. |
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Les clés peuvent être d’un maximum de 64 caractères, et les valeurs peuvent avoir un maximum de 512 caractères. |
|
tool_choice
|
tool_choice | object |
Contrôle l’outil (le cas échéant) appelé par le modèle. « aucun » signifie que le modèle n’appelle pas d’outils et génère plutôt un message. « auto » signifie que le modèle peut choisir entre générer un message ou appeler un outil. Spécification d’un outil tel que {'type' : 'file_search'} ou {'type' : 'function', 'function' : {'name' : 'my_function'}} force le modèle à appeler cet outil. |
|
max_prompt_tokens
|
max_prompt_tokens | number |
Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution. |
|
max_completion_tokens
|
max_completion_tokens | number |
Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution. |
|
usage
|
usage | object |
Statistiques d’utilisation relatives à l’exécution. Cette valeur est null si l’exécution n’est pas dans un état terminal (par exemple, in_progress, mise en file d’attente). |
|
truncation_strategy
|
truncation_strategy | object |
Contrôle la façon dont un thread est tronqué avant l’exécution. |
|
format_de_réponse
|
response_format | string |
Format que le modèle doit générer. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106. |
listMessageResponse
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
objet
|
object | string |
Détails du type d’objet response |
|
données
|
data | array of Data |
Liste des messages retournés par le service. |
|
premier_identifiant
|
first_id | string |
Détails du premier ID |
|
last_id
|
last_id | string |
Détails du dernier ID |
|
has_more
|
has_more | boolean |
Indique si d’autres agents sont là |
Data
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur, qui peut être référencé dans les points de terminaison d’API. |
|
objet
|
object | string |
Type d’objet, qui est toujours assistant. |
|
date_de_création
|
created_at | integer |
Horodatage Unix (en secondes) de la création de l’assistant. |
|
nom
|
name | string |
Nom de l’assistant. La longueur maximale est de 256 caractères. |
|
descriptif
|
description | string |
Description de l’assistant. La longueur maximale est de 512 caractères. |
|
model
|
model | string |
Nom du nom de déploiement du modèle à utiliser. |
|
instructions
|
instructions | string |
Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères. |
|
outils
|
tools | array of tools |
Liste des outils activés sur l’Assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter ou fonction. Une description de fonction peut comporter au maximum 1 024 caractères. |
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Utile pour stocker des informations supplémentaires dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères, et les valeurs peuvent avoir un maximum de 512 caractères. |
|
température
|
temperature | number |
La valeur par défaut est de 1. Détermine la température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
|
top_p
|
top_p | number |
La valeur par défaut est de 1. Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. |
|
format_de_réponse
|
response_format | object |
Spécifie le format de sortie du modèle. La définition de ce paramètre sur { 'type' : 'json_object' } active le mode JSON, ce qui garantit que le message est valide JSON. |
|
tool_resources
|
tool_resources | object |
Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
OpenAI.ServiceTier
Spécifie le type de traitement utilisé pour traiter la requête.
- Si la valeur est « automatique », la requête est traitée avec le niveau de service configuré dans les paramètres du projet. Sauf configuration contraire, le projet utilise « par défaut ».
- Si la valeur est « par défaut », la requête est traitée avec la tarification et les performances standard du modèle sélectionné.
- Si la valeur est « flex » ou « priority », la requête est traitée avec le niveau de service correspondant. Contactez les ventes pour en savoir plus sur le traitement prioritaire.
- Lorsqu’il n’est pas défini, le comportement par défaut est « auto ».
Lorsque le service_tier paramètre est défini, le corps de la réponse inclut la service_tier valeur en fonction du mode de traitement réellement utilisé pour traiter la requête. Cette valeur de réponse peut être différente de la valeur définie dans le paramètre.
Spécifie le type de traitement utilisé pour traiter la requête.
- Si la valeur est « automatique », la requête est traitée avec le niveau de service configuré dans les paramètres du projet. Sauf configuration contraire, le projet utilise « par défaut ».
- Si la valeur est « par défaut », la requête est traitée avec la tarification et les performances standard du modèle sélectionné.
- Si la valeur est « flex » ou « priority », la requête est traitée avec le niveau de service correspondant. Contactez les ventes pour en savoir plus sur le traitement prioritaire.
- Lorsqu’il n’est pas défini, le comportement par défaut est « auto ».
Lorsque le service_tier paramètre est défini, le corps de la réponse inclut la service_tier valeur en fonction du mode de traitement réellement utilisé pour traiter la requête. Cette valeur de réponse peut être différente de la valeur définie dans le paramètre.
OpenAI.Reasoning
Modèles de série o uniquement
Options de configuration pour les modèles de raisonnement.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
effort
|
effort | string | |
|
summary
|
summary | string |
Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Valeurs possibles : |
|
generate_summary
|
generate_summary | string |
Déconseillé : utilisez Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Valeurs possibles : |
OpenAI.ResponseTextFormatConfiguration
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
type
|
type | OpenAI.ResponseTextFormatConfigurationType |
Objet spécifiant le format que le modèle doit générer. La configuration Le format par défaut n’est Non recommandé pour les modèles gpt-4o et versions ultérieures : Configurer |
OpenAI.ResponseTextFormatConfigurationType
Objet spécifiant le format que le modèle doit générer.
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour les modèles gpt-4o et versions ultérieures :
Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
Objet spécifiant le format que le modèle doit générer.
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour les modèles gpt-4o et versions ultérieures :
Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
OpenAI.Tool
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
type
|
type | OpenAI.ToolType |
Outil qui peut être utilisé pour générer une réponse. |
OpenAI.ToolType
Outil qui peut être utilisé pour générer une réponse.
Outil qui peut être utilisé pour générer une réponse.
OpenAI.Prompt
Référence à un modèle d’invite et à ses variables. En savoir plus.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
pièce d'identité
|
id | string |
Identificateur unique du modèle d’invite à utiliser. |
|
version
|
version | string |
Version facultative du modèle d’invite. |
|
variables
|
variables | OpenAI.ResponsePromptVariables |
Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers. |
OpenAI.Response
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
metadata
|
metadata | object |
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
|
température
|
temperature | float |
Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou |
|
top_p
|
top_p | float |
Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou |
|
utilisateur
|
user | string |
Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. En savoir plus. |
|
niveau de service
|
service_tier | OpenAI.ServiceTier |
Spécifie le type de traitement utilisé pour traiter la requête.
Lorsque le |
|
top_logprobs
|
top_logprobs | integer |
Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée. |
|
previous_response_id
|
previous_response_id | string |
ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. En savoir plus sur l’état de conversation. |
|
model
|
model | string |
Déploiement de modèle à utiliser pour la création de cette réponse. |
|
reasoning
|
reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
|
background
|
background | boolean |
Indique s’il faut exécuter la réponse du modèle en arrière-plan. En savoir plus. |
|
max_output_tokens
|
max_output_tokens | integer |
Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement. |
|
max_tool_calls
|
max_tool_calls | integer |
Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. |
|
format
|
text.format | OpenAI.ResponseTextFormatConfiguration | |
|
outils
|
tools | array of OpenAI.Tool |
Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le Les deux catégories d’outils que vous pouvez fournir sont les suivantes :
|
|
tool_choice
|
tool_choice |
Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le |
|
|
prompt
|
prompt | OpenAI.Prompt |
Référence à un modèle d’invite et à ses variables. En savoir plus. |
|
truncation
|
truncation | string |
Stratégie de troncation à utiliser pour la réponse du modèle.
|
|
pièce d'identité
|
id | string |
Identificateur unique pour cette réponse. |
|
objet
|
object | string |
Type d’objet de cette ressource - toujours défini sur |
|
status
|
status | string |
État de la génération de réponse. L’un parmi |
|
date_de_création
|
created_at | unixtime |
Horodatage Unix (en secondes) de la création de cette réponse. |
|
erreur
|
error | OpenAI.ResponseError |
Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. |
|
reason
|
incomplete_details.reason | string |
La raison pour laquelle la réponse est incomplète. |
|
output
|
output | array of OpenAI.ItemResource |
Tableau d’éléments de contenu générés par le modèle.
|
|
instructions
|
instructions |
Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec |
|
|
output_text
|
output_text | string |
Propriété pratique du Kit de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les éléments |
|
usage
|
usage | OpenAI.ResponseUsage |
Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. |
|
parallel_tool_calls
|
parallel_tool_calls | boolean |
Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
|
pièce d'identité
|
conversation.id | string | |
|
agent
|
agent | AgentId |
OpenAI.ResponseError
Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
code
|
code | OpenAI.ResponseErrorCode |
Code d’erreur de la réponse. |
|
Message
|
message | string |
Une description de l’erreur à l’intention des utilisateurs. |
OpenAI.ResponseErrorCode
OpenAI.ItemResource
Élément de contenu utilisé pour générer une réponse.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
type
|
type | OpenAI.ItemType | |
|
pièce d'identité
|
id | string |
OpenAI.ItemType
OpenAI.ResponseUsage
Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
input_tokens
|
input_tokens | integer |
Nombre de jetons d’entrée. |
|
cached_tokens
|
input_tokens_details.cached_tokens | integer |
Nombre de jetons récupérés à partir du cache. En savoir plus sur la mise en cache des invites. |
|
output_tokens
|
output_tokens | integer |
Nombre de jetons de sortie. |
|
jetons_de_raisonnement
|
output_tokens_details.reasoning_tokens | integer |
Nombre de jetons de raisonnement. |
|
total_tokens
|
total_tokens | integer |
Nombre total de jetons utilisés. |
AgentID
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
type
|
type | string | |
|
nom
|
name | string |
Nom de l’agent. |
|
version
|
version | string |
Identificateur de version de l’agent. |
OpenAI.ResponsePromptVariables
Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
|
object |
Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers. |
outils
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
nom
|
name | string |
Liste des outils qui peuvent être utilisés dans l’exécution. |
fileIds
| Nom | Chemin d’accès | Type | Description |
|---|---|---|---|
|
nom
|
name | string |
Liste des ID de fichier qui peuvent être utilisés dans l’exécution. |
objet
Il s’agit du type 'object'.