Partager via


Service Azure AI Foundry Agent (préversion)

Intégrez facilement les fonctionnalités du service Azure AI Foundry Agent dans vos flux de travail.

Ce connecteur est disponible dans les produits et régions suivants :

Service classe Régions
Copilot Studio Premium Toutes les régions Power Automate , à l’exception des éléments suivants :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Applications logiques Norme Toutes les régions Logic Apps , à l’exception des suivantes :
     - Régions Azure Government
     - Régions Azure Chine
     - Us Department of Defense (DoD)
Power Apps Premium Toutes les régions Power Apps , à l’exception des suivantes :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Power Automate Premium Toutes les régions Power Automate , à l’exception des éléments suivants :
     - Us Government (GCC)
     - Us Government (GCC High)
     - China Cloud géré par 21Vianet
     - Us Department of Defense (DoD)
Contact
Nom Microsoft
URL https://support.microsoft.com
Métadonnées du connecteur
Éditeur Microsoft
Site internet https://learn.microsoft.com/en-us/azure/ai-services/agents/
Politique de confidentialité https://learn.microsoft.com/en-us/legal/cognitive-services/agents/data-privacy-security
Catégories IA; Informatique décisionnelle

Création d’une connexion

Le connecteur prend en charge les types d’authentification suivants :

Identités managées par applications logiques Créer une connexion à l’aide d’une identité managée LogicApps LOGICAPPS uniquement Partageable
Connexion de l’utilisateur Microsoft Entra ID Connexion avec les informations d’identification d’ID Microsoft Entra Toutes les régions Impossible à partager
Valeur par défaut [DÉCONSEILLÉE] Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante. Toutes les régions Impossible à partager

Identité managée Logic Apps

ID d’authentification : managedIdentityAuth

Applicable : LOGICAPPS uniquement

Créer une connexion à l’aide d’une identité managée LogicApps

Il s’agit d’une connexion partageable. Si l’application d’alimentation est partagée avec un autre utilisateur, la connexion est également partagée. Pour plus d’informations, consultez la vue d’ensemble des connecteurs pour les applications de canevas - Power Apps | Microsoft Docs

Nom Type Descriptif Obligatoire
Identité managée LogicApps managedIdentity Se connecter avec une identité managée Logic Apps Vrai
Point de terminaison de projet Azure AI ficelle Nom du point de terminaison azure AI Project comme https://{account-name}.services.ai.azure.com/api/projects/{project-name} Vrai

Connexion de l’utilisateur Microsoft Entra ID

ID d’authentification : entraIDUserLogin

Applicable : Toutes les régions

Connexion avec les informations d’identification d’ID Microsoft Entra

Ce n’est pas une connexion partageable. Si l’application Power est partagée avec un autre utilisateur, un autre utilisateur sera invité à créer explicitement une nouvelle connexion.

Nom Type Descriptif Obligatoire
Point de terminaison de projet Azure AI ficelle Nom du point de terminaison azure AI Project comme https://{account-name}.services.ai.azure.com/api/projects/{project-name} Vrai

Valeur par défaut [DÉCONSEILLÉE]

Applicable : Toutes les régions

Cette option concerne uniquement les connexions plus anciennes sans type d’authentification explicite et est fournie uniquement pour la compatibilité descendante.

Ce n’est pas une connexion partageable. Si l’application Power est partagée avec un autre utilisateur, un autre utilisateur sera invité à créer explicitement une nouvelle connexion.

Limitations

Nom Appels Période de renouvellement
Appels d’API par connexion 1000 60 secondes

Actions

Agents de liste

Agents de liste

Appeler l’agent

Appeler l’agent.

Créer un thread

Créer un thread

Créer une exécution

Créer une exécution

Protocole d’activité de l’agent externe basé sur l’application

Protocole d’activité de l’agent externe basé sur l’application

Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent

Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent

Répertorier les messages

Répertorier les messages

S’enfuir

S’enfuir

Agents de liste

Agents de liste

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version True string

Version de l’API

Retours

Appeler l’agent

Appeler l’agent.

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version True string

Version de l’API

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. En savoir plus.

top_logprobs
top_logprobs integer

Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée.

previous_response_id
previous_response_id string

ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. En savoir plus sur l’état de conversation.

background
background boolean

Indique s’il faut exécuter la réponse du modèle en arrière-plan. En savoir plus.

max_output_tokens
max_output_tokens integer

Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement.

max_tool_calls
max_tool_calls integer

Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée.

type
type True string

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

type
type True string

Outil qui peut être utilisé pour générer une réponse.

tool_choice
tool_choice

Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.

pièce d'identité
id True string

Identificateur unique du modèle d’invite à utiliser.

version
version string

Version facultative du modèle d’invite.

variables
variables object

Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.

truncation
truncation string

Stratégie de troncation à utiliser pour la réponse du modèle.

  • auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
  • disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
saisie
input

Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse.

Pour en savoir plus:

inclure
include string

Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :

  • code_interpreter_call.outputs : inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
  • computer_call_output.output.image_url : incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
  • file_search_call.results : incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
  • message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
  • message.output_text.logprobs : incluez des journaux d’activité avec des messages d’assistant.
  • reasoning.encrypted_content : inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d'utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l'utilisation de l'API Réponses de manière sans état (comme lorsque le paramètre store est défini sur false, ou lorsqu'une organisation est inscrite dans le programme de rétention de données zéro).
parallel_tool_calls
parallel_tool_calls boolean

Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.

store
store boolean

Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API.

instructions
instructions string

Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses.

type
type True string
nom
name True string

Nom de l’agent.

version
version True string

Identificateur de version de l’agent.

Retours

Créer un thread

Créer un thread

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version True string

Version de l’API

role
role string

Rôle de l’entité qui crée le message. Peut être un utilisateur ou un assistant. « utilisateur » indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur. 'assistant' indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.

contenu
content string

Contenu du message.

nom
name string

Liste des ID de fichier ou des messages qui peuvent être utilisés dans l’exécution.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.

tool_resources
tool_resources object

Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.

Retours

Créer une exécution

Créer une exécution

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version True string

Version de l’API

ID du thread pour lequel créer un message.
ThreadId True string

ID du thread pour lequel créer un message.

assistant_id
assistant_id True string

ID de l’assistant à utiliser pour cette exécution.

model
model string

Nom du déploiement du modèle à utiliser pour exécuter cette exécution. S’il est fourni, il remplace le nom de déploiement du modèle de l’Assistant.

instructions
instructions string

Remplace les instructions de l’assistant. Utile pour modifier le comportement par exécution.

additional_instructions
additional_instructions string

Ajoute des instructions supplémentaires à la fin des instructions de l’exécution.

role
role string

Rôle de l’entité qui crée le message. Peut être un utilisateur ou un assistant. « utilisateur » indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur. 'assistant' indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.

contenu
content string

Contenu du message.

nom
name string

Liste des ID de fichier ou des messages qui peuvent être utilisés dans l’exécution.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.

nom
name string

Liste des outils qui peuvent être utilisés dans l’exécution.

metadata
metadata object

Ensemble de 16 paires clé-valeur attachées à un objet. Longueur maximale des clés : 64 caractères, Longueur maximale des valeurs : 512 caractères.

température
temperature number

Température d’échantillonnage (0-2). Les valeurs supérieures (par exemple, 0,8) augmentent la randomité, les valeurs inférieures (par exemple, 0,2) rendent la sortie plus déterministe.

top_p
top_p number

L’échantillonnage du noyau est une alternative à la température. 0,1 signifie que la masse de probabilité supérieure de 10% est considérée.

ruisseau
stream boolean

Si la valeur est true, retourne un flux d’événements pendant l’exécution en tant qu’événements envoyés par le serveur, en terminant par un message « data : [DONE] ».

max_prompt_tokens
max_prompt_tokens integer

Nombre maximal de jetons d’achèvement qui peuvent être utilisés sur l’exécution. Si elle est dépassée, l’exécution se termine comme incomplète.

max_completion_tokens
max_completion_tokens integer

Nombre maximal de jetons d’achèvement qui peuvent être utilisés sur l’exécution. Si elle est dépassée, l’exécution se termine comme incomplète.

truncation_strategy
truncation_strategy object

Contrôle la façon dont un thread est tronqué avant l’exécution pour gérer la fenêtre de contexte initiale.

tool_choice
tool_choice object

Contrôle l’outil qui appelle le modèle. La valeur par défaut est « automatique », ce qui permet au modèle de décider. Peut être défini sur « none » pour désactiver l’utilisation de l’outil.

format_de_réponse
response_format object

Spécifie le format de sortie. Le paramètre { 'type' : 'json_object' } active le mode JSON pour les réponses JSON valides.

Retours

Protocole d’activité de l’agent externe basé sur l’application

Protocole d’activité de l’agent externe basé sur l’application

Paramètres

Nom Clé Obligatoire Type Description
Application agent.
MyApplication True string

Application agent.

object

Retours

response
object

Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent

Protocole d’activité de l’agent externe basé sur l’identificateur de l’agent

Paramètres

Nom Clé Obligatoire Type Description
ID de l’agent à envoyer un message.
AgentId True string

ID de l’agent à envoyer un message.

object

Retours

response
object

Répertorier les messages

Répertorier les messages

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version True string

Version de l’API

ID du thread pour lequel créer un message.
ThreadId True string

ID du thread pour lequel créer un message.

Retours

S’enfuir

S’enfuir

Paramètres

Nom Clé Obligatoire Type Description
Version de l’API
api-version True string

Version de l’API

ID du thread pour lequel créer un message.
ThreadId True string

ID du thread pour lequel créer un message.

ID de l’exécution.
RunId True string

ID de l’exécution.

Retours

Définitions

listAgentsResponse

Nom Chemin d’accès Type Description
objet
object string

Détails du type d’objet réponse.

données
data array of Data

Liste des messages retournés par le service.

premier_identifiant
first_id string

Détails du premier ID.

last_id
last_id string

Détails du dernier ID.

has_more
has_more boolean

Indique si d’autres agents sont là.

createThreadResponse

Nom Chemin d’accès Type Description
pièce d'identité
id string

Identificateur, qui peut être référencé dans les points de terminaison d’API.

objet
object string

Type d’objet, qui est toujours thread.

date_de_création
created_at integer

L'horodatage Unix (en secondes) de la création du thread.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.

createRunResponse

Nom Chemin d’accès Type Description
pièce d'identité
id string

Identificateur, qui peut être référencé dans les points de terminaison d’API.

objet
object string

Type d’objet, qui est toujours thread.run.

date_de_création
created_at integer

Horodatage Unix (en secondes) de la création de l’exécution.

thread_id
thread_id string

ID du thread qui a été exécuté dans le cadre de cette exécution.

assistant_id
assistant_id string

ID de l’assistant utilisé pour cette exécution.

status
status string

État de l’exécution, qui peut être mis en file d’attente, in_progress, requires_action, annulation, annulation, annulation, échec, terminé ou expiré.

required_action
required_action object

Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise.

dernière_erreur
last_error object

Dernière erreur associée à cette exécution. Est null s’il n’y a pas d’erreur.

expires_at
expires_at integer

Horodatage Unix (en secondes) de l’expiration de l’exécution.

started_at
started_at integer

Horodatage Unix (en secondes) du démarrage de l’exécution.

cancelled_at
cancelled_at integer

Horodatage Unix (en secondes) pour l’annulation de l’exécution.

failed_at
failed_at integer

Horodatage Unix (en secondes) de l’échec de l’exécution.

terminé_à
completed_at integer

Horodatage Unix (en secondes) de la fin de l’exécution.

model
model string

Nom du déploiement du modèle utilisé par l’Assistant pour cette exécution.

instructions
instructions string

Instructions utilisées par l’assistant pour cette exécution.

outils
tools array of tools

Liste des outils utilisés par l’assistant pour cette exécution.

identifiants_de_fichiers
file_ids array of fileIds

Liste des ID de fichier utilisés pour cette exécution.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Les clés peuvent être d’un maximum de 64 caractères, et les valeurs peuvent avoir un maximum de 512 caractères.

tool_choice
tool_choice object

Contrôle l’outil (le cas échéant) appelé par le modèle. « aucun » signifie que le modèle n’appelle pas d’outils et génère plutôt un message. « auto » signifie que le modèle peut choisir entre générer un message ou appeler un outil. Spécification d’un outil tel que {'type' : 'file_search'} ou {'type' : 'function', 'function' : {'name' : 'my_function'}} force le modèle à appeler cet outil.

max_prompt_tokens
max_prompt_tokens number

Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution.

max_completion_tokens
max_completion_tokens number

Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution.

usage
usage object

Statistiques d’utilisation relatives à l’exécution. Cette valeur est null si l’exécution n’est pas dans un état terminal (par exemple, in_progress, mise en file d’attente).

truncation_strategy
truncation_strategy object

Contrôle la façon dont un thread est tronqué avant l’exécution.

format_de_réponse
response_format string

Format que le modèle doit générer. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

getRunResponse

Nom Chemin d’accès Type Description
pièce d'identité
id string

Identificateur, qui peut être référencé dans les points de terminaison d’API.

objet
object string

Type d’objet, qui est toujours thread.run.

date_de_création
created_at integer

Horodatage Unix (en secondes) de la création de l’exécution.

thread_id
thread_id string

ID du thread qui a été exécuté dans le cadre de cette exécution.

assistant_id
assistant_id string

ID de l’assistant utilisé pour cette exécution.

status
status string

État de l’exécution, qui peut être mis en file d’attente, in_progress, requires_action, annulation, annulation, annulation, échec, terminé ou expiré.

required_action
required_action object

Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise.

dernière_erreur
last_error object

Dernière erreur associée à cette exécution. Est null s’il n’y a pas d’erreur.

expires_at
expires_at integer

Horodatage Unix (en secondes) de l’expiration de l’exécution.

started_at
started_at integer

Horodatage Unix (en secondes) du démarrage de l’exécution.

cancelled_at
cancelled_at integer

Horodatage Unix (en secondes) pour l’annulation de l’exécution.

failed_at
failed_at integer

Horodatage Unix (en secondes) de l’échec de l’exécution.

terminé_à
completed_at integer

Horodatage Unix (en secondes) de la fin de l’exécution.

model
model string

Nom du déploiement du modèle utilisé par l’Assistant pour cette exécution.

instructions
instructions string

Instructions utilisées par l’assistant pour cette exécution.

outils
tools array of tools

Liste des outils utilisés par l’assistant pour cette exécution.

identifiants_de_fichiers
file_ids array of fileIds

Liste des ID de fichier utilisés pour cette exécution.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Les clés peuvent être d’un maximum de 64 caractères, et les valeurs peuvent avoir un maximum de 512 caractères.

tool_choice
tool_choice object

Contrôle l’outil (le cas échéant) appelé par le modèle. « aucun » signifie que le modèle n’appelle pas d’outils et génère plutôt un message. « auto » signifie que le modèle peut choisir entre générer un message ou appeler un outil. Spécification d’un outil tel que {'type' : 'file_search'} ou {'type' : 'function', 'function' : {'name' : 'my_function'}} force le modèle à appeler cet outil.

max_prompt_tokens
max_prompt_tokens number

Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution.

max_completion_tokens
max_completion_tokens number

Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution.

usage
usage object

Statistiques d’utilisation relatives à l’exécution. Cette valeur est null si l’exécution n’est pas dans un état terminal (par exemple, in_progress, mise en file d’attente).

truncation_strategy
truncation_strategy object

Contrôle la façon dont un thread est tronqué avant l’exécution.

format_de_réponse
response_format string

Format que le modèle doit générer. Compatible avec GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

listMessageResponse

Nom Chemin d’accès Type Description
objet
object string

Détails du type d’objet response

données
data array of Data

Liste des messages retournés par le service.

premier_identifiant
first_id string

Détails du premier ID

last_id
last_id string

Détails du dernier ID

has_more
has_more boolean

Indique si d’autres agents sont là

Data

Nom Chemin d’accès Type Description
pièce d'identité
id string

Identificateur, qui peut être référencé dans les points de terminaison d’API.

objet
object string

Type d’objet, qui est toujours assistant.

date_de_création
created_at integer

Horodatage Unix (en secondes) de la création de l’assistant.

nom
name string

Nom de l’assistant. La longueur maximale est de 256 caractères.

descriptif
description string

Description de l’assistant. La longueur maximale est de 512 caractères.

model
model string

Nom du nom de déploiement du modèle à utiliser.

instructions
instructions string

Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères.

outils
tools array of tools

Liste des outils activés sur l’Assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter ou fonction. Une description de fonction peut comporter au maximum 1 024 caractères.

metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Utile pour stocker des informations supplémentaires dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères, et les valeurs peuvent avoir un maximum de 512 caractères.

température
temperature number

La valeur par défaut est de 1. Détermine la température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

top_p
top_p number

La valeur par défaut est de 1. Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

format_de_réponse
response_format object

Spécifie le format de sortie du modèle. La définition de ce paramètre sur { 'type' : 'json_object' } active le mode JSON, ce qui garantit que le message est valide JSON.

tool_resources
tool_resources object

Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.

OpenAI.ServiceTier

Spécifie le type de traitement utilisé pour traiter la requête.

  • Si la valeur est « automatique », la requête est traitée avec le niveau de service configuré dans les paramètres du projet. Sauf configuration contraire, le projet utilise « par défaut ».
  • Si la valeur est « par défaut », la requête est traitée avec la tarification et les performances standard du modèle sélectionné.
  • Si la valeur est « flex » ou « priority », la requête est traitée avec le niveau de service correspondant. Contactez les ventes pour en savoir plus sur le traitement prioritaire.
  • Lorsqu’il n’est pas défini, le comportement par défaut est « auto ».

Lorsque le service_tier paramètre est défini, le corps de la réponse inclut la service_tier valeur en fonction du mode de traitement réellement utilisé pour traiter la requête. Cette valeur de réponse peut être différente de la valeur définie dans le paramètre.

Spécifie le type de traitement utilisé pour traiter la requête.

  • Si la valeur est « automatique », la requête est traitée avec le niveau de service configuré dans les paramètres du projet. Sauf configuration contraire, le projet utilise « par défaut ».
  • Si la valeur est « par défaut », la requête est traitée avec la tarification et les performances standard du modèle sélectionné.
  • Si la valeur est « flex » ou « priority », la requête est traitée avec le niveau de service correspondant. Contactez les ventes pour en savoir plus sur le traitement prioritaire.
  • Lorsqu’il n’est pas défini, le comportement par défaut est « auto ».

Lorsque le service_tier paramètre est défini, le corps de la réponse inclut la service_tier valeur en fonction du mode de traitement réellement utilisé pour traiter la requête. Cette valeur de réponse peut être différente de la valeur définie dans le paramètre.

OpenAI.Reasoning

Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.

Nom Chemin d’accès Type Description
effort
effort string
summary
summary string

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Valeurs possibles : auto, concise ou detailed.

generate_summary
generate_summary string

Déconseillé : utilisez summary à la place.

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Valeurs possibles : auto, concise ou detailed.

OpenAI.ResponseTextFormatConfiguration

Nom Chemin d’accès Type Description
type
type OpenAI.ResponseTextFormatConfigurationType

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

OpenAI.ResponseTextFormatConfigurationType

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

OpenAI.Tool

Nom Chemin d’accès Type Description
type
type OpenAI.ToolType

Outil qui peut être utilisé pour générer une réponse.

OpenAI.ToolType

Outil qui peut être utilisé pour générer une réponse.

Outil qui peut être utilisé pour générer une réponse.

OpenAI.Prompt

Référence à un modèle d’invite et à ses variables. En savoir plus.

Nom Chemin d’accès Type Description
pièce d'identité
id string

Identificateur unique du modèle d’invite à utiliser.

version
version string

Version facultative du modèle d’invite.

variables
variables OpenAI.ResponsePromptVariables

Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.

OpenAI.Response

Nom Chemin d’accès Type Description
metadata
metadata object

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.

température
temperature float

Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.

top_p
top_p float

Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.

utilisateur
user string

Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. En savoir plus.

niveau de service
service_tier OpenAI.ServiceTier

Spécifie le type de traitement utilisé pour traiter la requête.

  • Si la valeur est « automatique », la requête est traitée avec le niveau de service configuré dans les paramètres du projet. Sauf configuration contraire, le projet utilise « par défaut ».
  • Si la valeur est « par défaut », la requête est traitée avec la tarification et les performances standard du modèle sélectionné.
  • Si la valeur est « flex » ou « priority », la requête est traitée avec le niveau de service correspondant. Contactez les ventes pour en savoir plus sur le traitement prioritaire.
  • Lorsqu’il n’est pas défini, le comportement par défaut est « auto ».

Lorsque le service_tier paramètre est défini, le corps de la réponse inclut la service_tier valeur en fonction du mode de traitement réellement utilisé pour traiter la requête. Cette valeur de réponse peut être différente de la valeur définie dans le paramètre.

top_logprobs
top_logprobs integer

Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée.

previous_response_id
previous_response_id string

ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. En savoir plus sur l’état de conversation.

model
model string

Déploiement de modèle à utiliser pour la création de cette réponse.

reasoning
reasoning OpenAI.Reasoning

Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.

background
background boolean

Indique s’il faut exécuter la réponse du modèle en arrière-plan. En savoir plus.

max_output_tokens
max_output_tokens integer

Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement.

max_tool_calls
max_tool_calls integer

Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée.

format
text.format OpenAI.ResponseTextFormatConfiguration
outils
tools array of OpenAI.Tool

Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

  • Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle, telles que la recherche web ou la recherche de fichiers. En savoir plus sur les outils intégrés.
  • Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code. En savoir plus sur l’appel de fonction.
tool_choice
tool_choice

Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.

prompt
prompt OpenAI.Prompt

Référence à un modèle d’invite et à ses variables. En savoir plus.

truncation
truncation string

Stratégie de troncation à utiliser pour la réponse du modèle.

  • auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
  • disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
pièce d'identité
id string

Identificateur unique pour cette réponse.

objet
object string

Type d’objet de cette ressource - toujours défini sur response.

status
status string

État de la génération de réponse. L’un parmi completed, failed, in_progress, cancelled, queued ou incomplete.

date_de_création
created_at unixtime

Horodatage Unix (en secondes) de la création de cette réponse.

erreur
error OpenAI.ResponseError

Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.

reason
incomplete_details.reason string

La raison pour laquelle la réponse est incomplète.

output
output array of OpenAI.ItemResource

Tableau d’éléments de contenu générés par le modèle.

  • La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
  • Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
instructions
instructions

Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses.

output_text
output_text string

Propriété pratique du Kit de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les éléments output_text du tableau output, le cas échéant. Pris en charge dans les kits SDK Python et JavaScript.

usage
usage OpenAI.ResponseUsage

Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.

parallel_tool_calls
parallel_tool_calls boolean

Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.

pièce d'identité
conversation.id string
agent
agent AgentId

OpenAI.ResponseError

Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.

Nom Chemin d’accès Type Description
code
code OpenAI.ResponseErrorCode

Code d’erreur de la réponse.

Message
message string

Une description de l’erreur à l’intention des utilisateurs.

OpenAI.ResponseErrorCode

Code d’erreur de la réponse.

Code d’erreur de la réponse.

OpenAI.ItemResource

Élément de contenu utilisé pour générer une réponse.

Nom Chemin d’accès Type Description
type
type OpenAI.ItemType
pièce d'identité
id string

OpenAI.ItemType

OpenAI.ResponseUsage

Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.

Nom Chemin d’accès Type Description
input_tokens
input_tokens integer

Nombre de jetons d’entrée.

cached_tokens
input_tokens_details.cached_tokens integer

Nombre de jetons récupérés à partir du cache. En savoir plus sur la mise en cache des invites.

output_tokens
output_tokens integer

Nombre de jetons de sortie.

jetons_de_raisonnement
output_tokens_details.reasoning_tokens integer

Nombre de jetons de raisonnement.

total_tokens
total_tokens integer

Nombre total de jetons utilisés.

AgentID

Nom Chemin d’accès Type Description
type
type string
nom
name string

Nom de l’agent.

version
version string

Identificateur de version de l’agent.

OpenAI.ResponsePromptVariables

Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.

Nom Chemin d’accès Type Description
object

Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers.

outils

Nom Chemin d’accès Type Description
nom
name string

Liste des outils qui peuvent être utilisés dans l’exécution.

fileIds

Nom Chemin d’accès Type Description
nom
name string

Liste des ID de fichier qui peuvent être utilisés dans l’exécution.

objet

Il s’agit du type 'object'.