Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Note
Ce document fait référence au portail Microsoft Foundry (classique).
🔍 Consultez la documentation Microsoft Foundry (nouvelle) pour en savoir plus sur le nouveau portail.
Cet article fournit des détails sur les points de terminaison API REST d’inférence pour Azure OpenAI.
Spécifications de l’API
La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :
- Plan de contrôle
- Plan de données – création
- Plan de données – inférence
Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.
Important
Il existe maintenant une nouvelle API d’inférence en préversion. En savoir plus dans notre guide de cycle de vie des API.
| API | Dernière version en préversion | Dernière version en disponibilité générale | Specifications | Description |
|---|---|---|---|---|
| Plan de contrôle | 2025-07-01-preview |
2025-06-01 |
Fichiers de spécifications | L’API de plan de contrôle est utilisée pour les opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI. |
| Plan de données | v1 preview |
v1 |
Fichiers de spécifications | L’API du plan de données contrôle les opérations d’inférence et de création. |
Authentication
Azure OpenAI offre deux méthodes d’authentification. Vous pouvez utiliser des clés API ou Microsoft Entra ID.
Authentification par clé API : pour ce type d’authentification, toutes les requêtes d’API doivent inclure la clé API dans l’en-tête HTTP
api-key. Le Démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.Authentification Microsoft Entra ID : Vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont incluses dans une requête sous la forme de l’en-tête
Authorization. Le jeton fourni doit être précédé deBearer. Par exemple :Bearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur Authentification avec Microsoft Entra ID.
Gestion des versions d'API REST
Les API de service sont versionnées à l’aide du paramètre de requête api-version. Toutes les versions suivent la structure de date AAAA-MM-JJ. Par exemple:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inférence de plan de données
Le reste de l’article couvre la version en préversion 2025-04-01-preview de la spécification d’inférence de plan de données Azure OpenAI.
Si vous recherchez de la documentation sur la dernière version de l’API en disponibilité générale, reportez-vous à la dernière API d’inférence de plan de données en disponibilité générale
Achèvements – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours – best_of doit être supérieur à n.Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| echo | boolean | Renvoyer l’invite en plus de l’achèvement | No | False |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | No | 0 |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>. |
No | None |
| logprobs | integer | Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs elle est 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 des éléments dans la réponse.La valeur maximale de logprobs est 5. |
No | None |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. |
No | 16 |
| n | integer | Nombre d’achèvements à générer pour chaque invite. Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | No | 0 |
| prompt | chaîne ou tableau | Prompt pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si une invite n’est pas spécifiée, le modèle est généré comme s’il s’agissait du début d’un nouveau document. |
Yes | |
| seed | integer | S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. | No | |
| stream | boolean | Indique s’il faut renvoyer la progression partielle. Si ceux-ci sont définis, les jetons sont envoyés sous forme d’événements envoyés par le serveur en tant que données seulement au fur et à mesure de leur disponibilité, le flux étant arrêté par un message data: [DONE].
Exemple de code Python. |
No | False |
| suffix | string | Suffixe qui vient après l’achèvement d’un texte inséré. Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Code d’état : par défaut
Description : Service non disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Réponses : Code d’état : 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporations – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et des algorithmes Machine Learning.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de déploiement du modèle déployé. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
No | |
| encoding_format | string | Format dans lequel retourner les incorporations. La valeur peut être float ou base64. La valeur par défaut est float. |
No | |
| input | chaîne ou tableau | Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser le nombre maximal de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide et un tableau doit avoir un nombre de dimensions inférieur ou égal à 2 048. |
Yes | |
| input_type | string | type d’entrée de la recherche d’incorporation à utiliser | No | |
| user | string | Un identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus. | No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Retourne les incorporations pour une invite donnée.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Réponses : Code d’état : 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Achèvements de conversation – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Crée un achèvement pour le message de conversation
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16. Valeurs possibles : wav, , mp3flac, opus,pcm16 |
No | |
| └─ voix | enum | Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.Valeurs possibles : alloy, , echofable, onyx, novashimmer |
No | |
| data_sources | array | Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
No | |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
No | 0 |
| function_call | chaîne ou chatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice.Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas de fonction et génère un message à la place.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la valeur par défaut lorsqu’aucune fonction n’est présente.
auto est la valeur par défaut si des fonctions sont présentes. |
No | |
| functions | array | Déconseillé en faveur de tools.Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
No | None |
| logprobs | boolean | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. |
No | False |
| max_completion_tokens | integer | Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la complétion de conversation. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
No | |
| messages | array | Liste des messages comprenant la conversation jusqu’ici. Exemple de code Python. | Yes | |
| metadata | object | Étiquettes et valeurs définies par le développeur, utilisées pour filtrer les achèvements dans le tableau de bord des achèvements stockés. | No | |
| modalities | ChatCompletionModalities | Types de sorties que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut : ["text"]Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :["text", "audio"] |
No | |
| n | integer | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n défini sur 1 pour minimiser les coûts. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| prediction | PredictionContent | Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque des parties importantes de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous générez à nouveau un fichier dont le contenu a été peu modifié. | No | |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
No | 0 |
| reasoning_effort | enum |
Modèles o1 uniquement Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.Valeurs possibles : low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.Activer { "type": "json_schema", "json_schema": {...} } permet les sorties structurées, ce qui garantit que le modèle respecte votre schéma JSON fourni.Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| seed | integer | Cette fonctionnalité est en version bêta. S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. |
No | |
| store | boolean | Indique si la sortie de cette requête d’achèvement de conversation doit être utilisée dans nos produits de distillation ou d’évaluation de modèle. | No | |
| stream | boolean | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés sous forme d'événements envoyés par le serveur contenant uniquement des données au fur et à mesure de leur disponibilité, avec le flux terminé par un data: [DONE] message.
Exemple de code Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère un message à la place.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si des outils sont présents. |
No | |
| tools | array | Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée.
logprobs devez être défini sur true si ce paramètre est utilisé. |
No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
No | |
| user_security_context | userSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même, et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Apprenez-en davantage sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. | No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Code d’état : par défaut
Description : Service non disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée un achèvement basé sur les données Recherche Azure et l’identité managée affectée par le système.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée un achèvement basé sur les données de vecteur d’image Recherche Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée un achèvement basé sur les données vectorielles Recherche Azure, le message précédent de l’Assistant et l’identité managée affectée par l’utilisateur(-trice).
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée un achèvement pour l’index Azure Cosmos DB fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion pour la base de données Mongo fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée un achèvement pour l’index Elasticsearch fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée un achèvement pour la ressource Pinecone fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcriptions – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcrit l’audio dans la langue d’entrée.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID du modèle à utiliser. Les options sont gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, whisper-1, et gpt-4o-transcribe-diarize. |
Yes | |
| file | string | L’objet de fichier audio à transcrire. | Yes | |
| language | string | La langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. | No | |
| prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. | No | 0 |
| timestamp_granularities[] | array | Les granularités d’horodatage à remplir pour cette transcription.
response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texte transcrit au format de sortie (lorsque response_format était l’un des text, vtt ou srt). |
Examples
Example
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traductions – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcrit et traduit l’audio d’entrée en texte anglais.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Le fichier audio à traduire. | Yes | |
| prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. | No | 0 |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texte transcrit au format de sortie (lorsque response_format était l’un des textes, vtt ou srt). |
Examples
Example
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Voix – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Génère de l’audio à partir du texte d’entrée.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| response_format | enum | Le format dans lequel synthétiser l’audio. Valeurs possibles : mp3, , opusaac, flac, wavpcm |
No | |
| speed | number | La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0.
1.0 est la valeur par défaut. |
No | 1.0 |
| voice | enum | La voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, , echofable, onyx, novashimmer |
Yes |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Synthétise l’audio à partir du texte fourni.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Réponses : Code d’état : 200
{
"body": "101010101"
}
Générations d’images – Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Génère un lot d’images à partir d’une légende de texte sur un déploiement de modèle de série DALL-E ou gpt-image-1 donné
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permet de définir la transparence pour l’arrière-plan des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. | No | auto |
| n | integer | Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. | No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. | No | 100 |
| output_format | imagesOutputFormat | Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. | No | png |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour la série gpt-image-1 et 4 000 caractères pour dall-e-3 | Yes | |
| partial_images | integer | Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement. | 0 | |
| stream | boolean | Modifiez l’image en mode streaming. | no | false |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. Ce paramètre n’est pas pris en charge pour les modèles de la série gpt-image-1, qui retournent toujours des images codées en base64.Valeurs possibles : url, b64_json. |
No | url |
| size | imageSize | Taille des images générées. | No | auto |
| style | imageStyle | Le style des images générées. Uniquement prise en charge pour dall-e-3. | No | vivid |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | No |
Responses
Code d’état : 200
Description : Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Code d’état : par défaut
Description : Désolé, une erreur s’est produite.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crée des images en fonction d’un prompt donné.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Réponses : Code d’état : 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Générations d’images - Modifier
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Modifie une image à partir d’une légende de texte sur un déploiement de modèle gpt-image-1 donné
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | chaîne ou tableau | Image à modifier. Doit être un fichier d'image compatible ou un tableau d'images. Chaque image doit être un fichier png ou jpg inférieur à 50 Mo. | Yes | |
| input_fidelity | string | Contrôler l’effort que le modèle exercera pour correspondre au style et aux caractéristiques, en particulier les caractéristiques faciales, des images d’entrée. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. Prend en charge high et low. |
no |
low. |
| mask | string | Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. | No | |
| n | integer | Nombre d’images à générer. Doit être compris entre 1 et 10. | No | 1 |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. | Yes | |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| partial_images | Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement. | |||
| stream | boolean | Modifiez l’image en mode streaming. | no | false |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | No | url |
| size | imageSize | Taille des images générées. | No | auto |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | No |
Responses
Code d’état : 200
Description : Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Code d’état : par défaut
Description : Désolé, une erreur s’est produite.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Répertorier – Assistants
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retourne une liste d’Assistants.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Retourne une liste d’Assistants.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Créer – Assistant
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Créez un assistant avec un modèle et des instructions.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | Yes | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| └ vector_stores | array | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Créez un assistant avec un modèle et des instructions.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Réponses : Code d’état : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obtenir – Assistant
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Récupère un assistant.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID de l’assistant à récupérer. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Récupère un assistant.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modifier – Assistant
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifie un assistant.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | Identifiant de l’assistant à modifier. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | No | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifie un assistant.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Réponses : Code d’état : 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Supprimer – Assistant
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Supprimez un assistant.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | L'identifiant de l'assistant à supprimer. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Supprime un Assistant.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Créer – Thread
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Créez un fil de discussion.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Liste des messages pour démarrer le thread. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No | |
| └ vector_stores | array | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Crée un thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obtenir – Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Récupère un thread.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à récupérer. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Récupère un thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifier – Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifie un thread.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à modifier. Seul le metadata fichier peut être modifié. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifie un thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Supprimer – Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Supprimez un thread.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à supprimer. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Supprime un fil.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Répertorier – Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retourne une liste de messages pour un thread donné.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads auxquels appartiennent les messages. |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| run_id | query | No | string | Filtrez les messages par l’ID d’exécution qui les a générés. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
Répertorier les messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Créer – Message
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Créer un message.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads pour lesquels créer un message. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. | No | |
| content | string | Contenu du message. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| role | string | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
Yes |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Créer un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Réponses : Code d’état : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obtenir – Message
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Récupérez un message.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads auxquels ce message appartient. |
| message_id | path | Yes | string | ID du message à récupérer. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Récupérez un message.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifier – Message
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifie un message.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel ce message appartient. |
| message_id | path | Yes | string | ID du message à modifier. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modifiez un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Créer – Thread et exécution
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Créez un thread et exécutez-le dans une seule requête.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
No | |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Créez un thread et exécutez-le dans une seule requête.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Répertorier – Exécutions
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retourne une liste d’exécutions appartenant à un thread.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel appartient l’exécution du processus. |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retourne une liste d’exécutions appartenant à un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Créer – Exécution
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Créer une exécution.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à exécuter. |
| include[] | query | No | array | Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content, qui permet d'extraire le contenu du résultat de la recherche de fichiers. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. | No | |
| additional_messages | array | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | No | |
| assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | L’ID du modèle à utiliser pour lancer cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère un message à la place.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tools | array | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Créer une exécution.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obtenir – Exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Récupère une exécution.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads qui ont été exécutés. |
| run_id | path | Yes | string | ID de l’exécution à récupérer. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Obtient une exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifier – Exécution
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifie une exécution.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads qui ont été exécutés. |
| run_id | path | Yes | string | ID de l’exécution à modifier. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifie une exécution.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Envoyer – Sorties d’outil à exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Lorsqu’une exécution a status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads auxquels appartient cette exécution. |
| run_id | path | Yes | string | ID de l’exécution qui nécessite la soumission de sortie d’outil. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
No | |
| tool_outputs | array | Liste des outils pour lesquels les sorties sont envoyées. | Yes |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Lorsqu’une exécution a status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annuler – Exécution
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Annule une exécution qui est in_progress.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel appartient cette exécution. |
| run_id | path | Yes | string | ID de l’exécution à annuler. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Annule une exécution qui est in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Répertorier – Étapes d’exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retourne une liste des étapes d’exécution appartenant à une exécution.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L'ID du thread auquel appartiennent le cycle et les étapes de l'exécution. |
| run_id | path | Yes | string | L'ID de l'exécution auquel appartiennent les étapes d'exécution. |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content, qui permet d'extraire le contenu du résultat de la recherche de fichiers. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retourne une liste des étapes d’exécution appartenant à une exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obtenir – Étape d’exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Récupère une étape d’exécution.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel appartient l’exécution et l’étape d’exécution. |
| run_id | path | Yes | string | ID de l’exécution à laquelle appartient l’étape d’exécution. |
| step_id | path | Yes | string | ID de l’étape d’exécution à récupérer. |
| include[] | query | No | array | Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content, qui permet d'extraire le contenu du résultat de la recherche de fichiers. |
| api-version | query | Yes | string |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Récupère une étape d’exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Répertorier – Magasins de vecteurs
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retourne une liste de magasins de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retourne une liste de magasins de vecteurs.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Créer – Magasin de vecteurs
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Créez un magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
No | |
| expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | No | |
| file_ids | array | Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| name | string | Le nom du magasin de vecteurs. | No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Crée un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obtenir – Magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Récupère un magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID du magasin de vecteurs à récupérer. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Récupère un magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifier – Magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifie un magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à modifier. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| name | string | Le nom du magasin de vecteurs. | No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifie un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Supprimer – Magasin de vecteurs
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Supprimez un magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à supprimer. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Supprime un magasin de vecteurs.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Répertorier – Fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retourne une liste de fichiers de magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartiennent les fichiers. |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| filter | query | No | string Valeurs possibles : in_progress, , completedfailed,cancelled |
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retourne une liste de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Créer – Fichier de magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs pour lequel créer un fichier. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. |
No | |
| file_id | string | Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Yes |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Réponses : Code d’état : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obtenir – Fichier de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Récupère un fichier de magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier récupéré. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Récupère un fichier de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Supprimer – Fichier de magasin de vecteurs
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier à supprimer. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Mettez à jour les attributs sur un fichier de stockage vectoriel.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier pour mettre à jour les attributs. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres. |
Yes |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Récupérer le contenu du fichier de stockage de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Récupérez le contenu extrait d’un fichier de stockage de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du magasin de vecteurs. |
| file_id | path | Yes | string | ID du fichier dans la base de données de vecteurs. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Stockage de vecteurs de recherche
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Recherchez dans une base de données de vecteurs les segments pertinents en fonction d'un filtre basé sur la requête et les attributs du fichier.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à rechercher. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | No | |
| max_num_results | integer | Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. | No | 10 |
| query | chaîne ou tableau | Chaîne de requête pour une recherche | Yes | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ classificateur | enum | Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | No | False |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Créer – Lot de fichiers de magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Créez un lot de fichiers de magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L'ID du magasin de vecteurs pour lequel créer un lot de fichiers. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. |
No | |
| file_ids | array | Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Yes |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Créez un lot de fichiers de magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Réponses : Code d’état : 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obtenir – Lot de fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Récupère un lot de fichiers de magasin de vecteurs.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers récupéré. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Récupère un lot de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annuler – Lot de fichiers du magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers à annuler. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Répertorier – Fichiers de lot de fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retourne une liste de fichiers de magasin de vecteurs dans un lot.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartiennent les fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers auquel appartiennent les fichiers. |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| filter | query | No | string Valeurs possibles : in_progress, , completedfailed,cancelled |
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | version d’API |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retourne une liste de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Créer - Session en Temps Réel
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement session.update client.
Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être réglée sur null pour désactiver une fois activée. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ Langue | string | La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ Modèle | string | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1. |
No | |
| └─ invite | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| instructions | string | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| model | string | Nom du déploiement utilisé pour cette session. |
No | |
| output_audio_format | enum | Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales. |
No | 0.8 |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction. |
No | auto |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. |
No | True |
| └─ enthousiasme | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit. |
No | True |
| prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └durée_du_silence_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur. |
No | |
| └─ seuil | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Code d’état : 200
Description : Session créée avec succès.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Créer : Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel spécifiquement pour les transcriptions en temps réel.
Peut être configuré avec les mêmes paramètres de session que l’événement transcription_session.update client.
Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants : - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ Langue | string | La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ Modèle | enum | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1.Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ invite | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| └─ enthousiasme | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └durée_du_silence_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur. |
No | |
| └─ seuil | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No |
Responses
Code d’état : 200
Description : Session créée avec succès.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Crée un modèle de réponse.
Corps de la requête
Content-Type : application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | chaîne ou tableau | Entrées de modèle | Yes | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
No | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. Apprenez-en davantage sur l’état de conversation. |
No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. | No | |
| store | boolean | Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. |
No | True |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. Pour plus d’informations, consultez la section Streaming ci-dessous. |
No | False |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - Entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le fonctionnalités du modèle |
No | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Code d’état : par défaut
Description : Service non disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de Réponse - Éléments d'entrée
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Récupère une réponse de modèle avec l’ID donné.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L'ID de la réponse à récupérer. |
| include | query | No | array | Champs supplémentaires à inclure dans la réponse. Pour plus d’informations, consultez le include paramètre de création de réponse ci-dessus. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Code d’état : par défaut
Description : Service non disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Supprimer la réponse
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Supprime une réponse de modèle avec l’ID donné.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID de la réponse à supprimer. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
Code d’état : 404
Description : Introuvable
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Code d’état : par défaut
Description : Service non disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Réponses - liste d’éléments de réponse
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retourne une liste d’éléments d’entrée pour une réponse donnée.
Paramètres d’URI
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | URL en chaîne | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID de la réponse pour laquelle récupérer les éléments d’entrée. |
| limit | query | No | integer | Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Ordre dans lequel les éléments d'entrée doivent être retournés. La valeur par défaut est asc.- asc: retourne les éléments d’entrée dans l’ordre croissant.- desc: retourne les éléments d’entrée dans l’ordre décroissant. |
| after | query | No | string | ID d’élément utilisé pour répertorier les éléments suivants, dans le cadre de la pagination. |
| before | query | No | string | Identifiant d'article pour lister les articles précédents, utilisé pour la pagination. |
En-tête de requête
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType : oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizescope : https://cognitiveservices.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description : OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erreur interne avec des détails supplémentaires. | No | |
| param | string | No | ||
| type | string | No |
innerError
Erreur interne avec des détails supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | No | |
| content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | No |
innerErrorCode
Codes d’erreur pour l’objet d’erreur interne.
| Property | Value |
|---|---|
| Description | Codes d’erreur pour l’objet d’erreur interne. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erreur interne avec des détails supplémentaires. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Erreur interne avec des détails supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | No | |
| content_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | No | |
| revised_prompt | string | Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. | No |
contentFilterCompletionTextSpan
Permet de décrire une étendue dans le texte de saisie semi-automatique générée. Le décalage 0 est le premier code de caractère UTF32 du texte de saisie semi-automatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Décalage du premier code de caractère UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. | Yes | |
| completion_start_offset | integer | Décalage du code de caractère UTF32 qui commence l’étendue. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| URL └─ | string | No | ||
| └─ licence | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informations sur les résultats du filtrage de contenu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Résultats du filtrage de contenu pour un seul prompt dans la requête.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | No | |
| prompt_index | integer | No |
promptFilterResults
Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.
Aucune propriété définie pour ce composant.
dalleContentFilterResults
Informations sur les résultats du filtrage de contenu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. | No | 0 |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | No | |
| max_completion_tokens | integer | Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). N’est pas compatible avec les modèles de série o1. | No | 4096 |
| metadata | object | Étiquettes et valeurs définies par le développeur, utilisées pour filtrer les achèvements dans le tableau de bord des achèvements stockés. | No | |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | No | 0 |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. | No | |
| store | boolean | Indique si la sortie de cette requête d’achèvement de conversation doit être utilisée dans nos produits de distillation ou d’évaluation de modèle. | No | |
| stream | boolean | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un message data: [DONE]. |
No | False |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours.
best_of doit être supérieur à n.Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| echo | boolean | Renvoyer l’invite en plus de l’achèvement |
No | False |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
No | 0 |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>. |
No | None |
| logprobs | integer | Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.La valeur maximale de logprobs est 5. |
No | None |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. |
No | 16 |
| n | integer | Nombre d’achèvements à générer pour chaque invite. Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
No | 0 |
| prompt | chaîne ou tableau | Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document. |
Yes | |
| seed | integer | S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
No | |
| stream | boolean | Indique s’il faut renvoyer la progression partielle. Si ceux-ci sont définis, les jetons sont envoyés sous forme d’événements envoyés par le serveur en tant que données seulement au fur et à mesure de leur disponibilité, le flux étant arrêté par un message data: [DONE].
Exemple de code Python. |
No | False |
| suffix | string | Suffixe qui vient après l’achèvement d’un texte inséré. Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
No |
createCompletionResponse
Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés en continu partagent la même forme (contrairement au point de terminaison de conversation).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix d’achèvement générés pour l’invite d’entrée. | Yes | |
| created | integer | Horodatage Unix (en secondes) de la création de l’achèvement. | Yes | |
| id | string | Identificateur unique de la saisie semi-automatique. | Yes | |
| model | string | Modèle utilisé pour la complétion. | Yes | |
| object | enum | Type d’objet, qui est toujours « text_completion » Valeurs possibles : text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute. Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
No | |
| usage | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16. Valeurs possibles : wav, , mp3flac, opus,pcm16 |
No | |
| └─ voix | enum | Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.Valeurs possibles : alloy, , echofable, onyx, novashimmer |
No | |
| data_sources | array | Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
No | |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. |
No | 0 |
| function_call | chaîne ou chatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice.Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas de fonction et génère un message à la place.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la valeur par défaut lorsqu’aucune fonction n’est présente.
auto est la valeur par défaut si des fonctions sont présentes. |
No | |
| functions | array | Déconseillé en faveur de tools.Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
No | None |
| logprobs | boolean | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. |
No | False |
| max_completion_tokens | integer | Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la complétion de conversation. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
No | |
| messages | array | Liste des messages comprenant la conversation jusqu’ici. Exemple de code Python. | Yes | |
| metadata | object | Étiquettes et valeurs définies par le développeur, utilisées pour filtrer les achèvements dans le tableau de bord des achèvements stockés. | No | |
| modalities | ChatCompletionModalities | Types de sorties que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut : ["text"]Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :["text", "audio"] |
No | |
| n | integer | Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n défini sur 1 pour minimiser les coûts. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| prediction | PredictionContent | Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque des parties importantes de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous générez à nouveau un fichier dont le contenu a été peu modifié. | No | |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
No | 0 |
| reasoning_effort | enum |
Modèles o1 uniquement Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.Valeurs possibles : low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.La configuration de { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni.Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| seed | integer | Cette fonctionnalité est en version bêta. S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. |
No | |
| store | boolean | Indique si la sortie de cette requête d’achèvement de conversation doit être utilisée dans nos produits de distillation ou d’évaluation de modèle. | No | |
| stream | boolean | Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés sous forme d'événements envoyés par le serveur contenant uniquement des données au fur et à mesure de leur disponibilité, avec le flux terminé par un data: [DONE] message.
Exemple de code Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si des outils sont présents. |
No | |
| tools | array | Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée.
logprobs devez être défini sur true si ce paramètre est utilisé. |
No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. |
No | |
| user_security_context | userSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même, et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Apprenez-en davantage sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. | No |
userSecurityContext
Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même, et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Apprenez-en davantage sur la protection des applications IA à l’aide de Microsoft Defender for Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Le nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_id | string | Cet identificateur est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_tenant_id | string | ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multilocataire. | No | |
| source_ip | string | Capture l’adresse IP du client d’origine, acceptant les formats IPv4 et IPv6. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| parameters | FunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON.
Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide. |
No |
chatCompletionFunctionCallOption
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de la fonction à appeler. | Yes |
chatCompletionFunctionParameters
Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format.
Aucune propriété définie pour ce composant.
chatCompletionRequestMessage
Ce composant peut être l’un des éléments suivants :
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur.
Avec les modèles o1 et versions ultérieures, les messages developer remplacent les messages system précédents.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message du développeur. | Yes | |
| name | string | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | No | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas developer.Valeurs possibles : developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message système. | Yes | |
| name | string | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | No | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas system.Valeurs possibles : system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message de l’utilisateur. |
Yes | |
| name | string | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | No | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas user.Valeurs possibles : user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message de l’Assistant. Obligatoire, sauf si tool_calls ou function_call est spécifié. |
No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. |
No | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ Nom | string | Nom de la fonction à appeler. | No | |
| name | string | Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. | No | |
| refusal | string | Message de refus de l’assistant. | No | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas assistant.Valeurs possibles : assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Appels d’outils générés par le modèle, par exemple les appels de fonction. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message de l’outil. | Yes | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas tool.Valeurs possibles : tool |
Yes | |
| tool_call_id | string | Appel d’outil auquel ce message répond. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message de fonction. | Yes | |
| name | string | Nom de la fonction à appeler. | Yes | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas function.Valeurs possibles : function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestSystemMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestUserMessageContentPart
Ce composant peut être l’un des éléments suivants :
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestToolMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenu du texte. | Yes | |
| type | enum | Le type de la partie contenu. Valeurs possibles : text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ données | string | Données audio encodées en base64. | No | |
| └─ format | enum | Le format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ». Valeurs possibles : wav, mp3 |
No | |
| type | enum | Le type de la partie contenu. A toujours la valeur input_audio.Valeurs possibles : input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ détail | enum | Spécifie le niveau de détail de l’image. Découvrez-en plus en consultant le guide de Vision. Valeurs possibles : auto, , lowhigh |
No | |
| └─ URL | string | URL de l’image ou des données d’image encodées en base64. | No | |
| type | enum | Le type de la partie contenu. Valeurs possibles : image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Message de refus généré par le modèle. | Yes | |
| type | enum | Le type de la partie contenu. Valeurs possibles : refusal |
Yes |
azureChatExtensionConfiguration
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
###Discriminant pour azureChatExtensionConfiguration
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureChatExtensionType
Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
| Property | Value |
|---|---|
| Description | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Chemin d’accès du point de terminaison absolu de la ressource Recherche cognitive Azure à utiliser. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource de Recherche cognitive Azure configurée. | No | |
| filter | string | Filtre de recherche. | No | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| query_type | azureSearchQueryType | Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | No | |
| semantic_configuration | string | La configuration sémantique supplémentaire pour la requête. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à présenter pour la requête configurée. | No |
azureSearchIndexFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource de Recherche cognitive Azure configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nom des champs d’index qui doivent être traités comme du contenu. | No | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin d’accès au fichier. | No | |
| image_vector_fields | array | Les noms des champs qui représentent des données de vecteurs d’image. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms de champs qui représentent des données vectorielles. | No |
azureSearchQueryType
Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Property | Value |
|---|---|
| Description | Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Une représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. | Yes | |
| container_name | string | Le nom du conteneur de ressource SQL Azure Cosmos DB. | Yes | |
| database_name | string | Le nom de la base de données du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. | Yes | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom de l’index du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à présenter pour la requête configurée. | No |
azureCosmosDBFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nom des champs d’index qui doivent être traités comme du contenu. | Yes | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin d’accès au fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms de champs qui représentent des données vectorielles. | Yes |
elasticsearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Elasticsearch lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Point de terminaison d’Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. | No | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom d’index de Elasticsearch®. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| query_type | elasticsearchQueryType | Type de requêtes de récupération Elasticsearch® qui doivent être exécutées lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à présenter pour la requête configurée. | No |
elasticsearchIndexFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nom des champs d’index qui doivent être traités comme du contenu. | No | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin d’accès au fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms de champs qui représentent des données vectorielles. | No |
elasticsearchQueryType
Type de requêtes de récupération Elasticsearch® qui doivent être exécutées lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Property | Value |
|---|---|
| Description | Type de requêtes de récupération Elasticsearch® qui doivent être exécutées lors de son utilisation en tant qu’extension de conversation Azure OpenAI. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Représentation spécifique des options configurables pour MongoDB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | No | False |
| app_name | string | Nom de l’application MongoDB. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. | Yes | |
| collection_name | string | Nom de la collection MongoDB. | Yes | |
| database_name | string | Nom de la base de données MongoDB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Nom du point de terminaison du cluster MongoDB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée. | Yes | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom de l’index MongoDB. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à présenter pour la requête configurée. | No |
mongoDBFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nom des champs d’index qui doivent être traités comme du contenu. | Yes | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin d’accès au fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms de champs qui représentent des données vectorielles. | Yes |
pineconeChatExtensionConfiguration
Une représentation spécifique des options configurables pour Pinecone lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI. | Yes | |
| environment | string | Le nom de l’environnement de Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. | Yes | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom de l’index de base de données Pinecone. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à présenter pour la requête configurée. | No |
pineconeFieldMappingOptions
Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Nom des champs d’index qui doivent être traités comme du contenu. | Yes | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin d’accès au fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No |
onYourDataAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données.
Discriminant pour onYourDataAuthenticationOptions
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataContextProperty
La propriété de contexte.
| Property | Value |
|---|---|
| Description | La propriété de contexte. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Les types d’authentification pris en charge avec Azure OpenAI sur vos données.
| Property | Value |
|---|---|
| Description | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clé API à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataConnectionStringAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | La chaîne de connexion à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une paire clé et ID de clé Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clé Elasticsearch à utiliser pour l’authentification. | No | |
| key_id | string | ID de clé Elasticsearch à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une clé API encodée Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Clé API encodée Elasticsearch à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataAccessTokenAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un jeton d’accès.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Le jeton d’accès à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | Mot de passe. à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes | |
| username | string | Nom d’utilisateur à utiliser pour l’authentification. | No |
onYourDataVectorizationSource
Une représentation abstraite d’une source de vectorisation pour Azure OpenAI sur vos données avec la recherche vectorielle.
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Valeur de type | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataVectorizationSourceType
Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
| Property | Value |
|---|---|
| Description | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un appel public du point de terminaison Azure OpenAI pour des incorporations.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
No | |
| endpoint | string | Spécifie l’URL du point de terminaison de la ressource à partir de laquelle les incorporations doivent être récupérées. Son format doit être https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. |
No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataDeploymentNameVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. | No | |
| dimensions | integer | Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. |
No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataIntegratedVectorizationSource
Représente le vectoriseur intégré défini dans la ressource de recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataModelIdVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un ID de modèle de service de recherche. Actuellement uniquement pris en charge par Elasticsearch®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Spécifie l’ID de modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. | No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
azureChatExtensionsMessageContext
Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Tous les documents récupérés. | No | |
| citations | array | Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. | No | |
| intent | string | Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. | No |
citation
informations de citation pour un message de réponse des saisies semi-automatiques de conversation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | ID de bloc de la citation. | No | |
| content | string | Contenu de la citation. | Yes | |
| filepath | string | Chemin d’accès au fichier de la citation. | No | |
| rerank_score | number | Le score de reclassement du document récupéré. | No | |
| title | string | Titre de la citation. | No | |
| url | string | URL de la citation. | No |
retrievedDocument
Le document récupéré.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | ID de bloc de la citation. | No | |
| content | string | Contenu de la citation. | Yes | |
| data_source_index | integer | L’index de la source de données. | No | |
| filepath | string | Chemin d’accès au fichier de la citation. | No | |
| filter_reason | filterReason | La raison de filtrage du document récupéré. | No | |
| original_search_score | number | Le score de recherche d’origine du document récupéré. | No | |
| rerank_score | number | Le score de reclassement du document récupéré. | No | |
| search_queries | array | Ls requêtes de recherche utilisées pour récupérer le document. | No | |
| title | string | Titre de la citation. | No | |
| url | string | URL de la citation. | No |
filterReason
La raison de filtrage du document récupéré.
| Property | Value |
|---|---|
| Description | La raison de filtrage du document récupéré. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Fonction appelée par le modèle. | Yes | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ Nom | string | Nom de la fonction à appeler. | No | |
| id | string | ID de l’appel de l’outil. | Yes | |
| type | toolCallType | Le type de l’appel d’outil, dans ce cas function. |
Yes |
toolCallType
Le type de l’appel d’outil, dans ce cas function.
| Property | Value |
|---|---|
| Description | Le type de l’appel d’outil, dans ce cas function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message. | No | |
| tool_call_id | string | Appel d’outil auquel ce message répond. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message. | No | |
| name | string | Contenu du message. | No | |
| role | enum | Le rôle de l’auteur(-trice) des messages, dans ce cas function.Valeurs possibles : function |
No |
createChatCompletionResponse
Représente une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs si n est supérieur à 1. |
Yes | |
| created | integer | Horodatage Unix (en secondes) de la création de la complétion de conversation. | Yes | |
| id | string | Identificateur unique de la complétion de conversation. | Yes | |
| model | string | Modèle utilisé pour la complétion de conversation. | Yes | |
| object | enum | Le type d’objet, qui est toujours chat.completion.Valeurs possibles : chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute. Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
No | |
| usage | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | No |
createChatCompletionStreamResponse
Représente un bloc diffusé en continu d’une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments si n est supérieur à 1. |
Yes | |
| created | integer | Horodatage Unix (en secondes) de la création de la complétion de conversation. Chaque bloc a le même timestamp. | Yes | |
| id | string | Identificateur unique de la complétion de conversation. Chaque bloc a le même ID. | Yes | |
| model | string | Modèle utilisé pour générer la complétion. | Yes | |
| object | enum | Le type d’objet, qui est toujours chat.completion.chunk.Valeurs possibles : chat.completion.chunk |
Yes | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute. Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end. |
No |
chatCompletionStreamResponseDelta
Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message de bloc. | No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. |
No | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ Nom | string | Nom de la fonction à appeler. | No | |
| refusal | string | Message de refus généré par le modèle. | No | |
| role | enum | Rôle de l’auteur de ce message. Valeurs possibles : system, , userassistant,tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ Nom | string | Nom de la fonction à appeler. | No | |
| id | string | ID de l’appel de l’outil. | No | |
| index | integer | Yes | ||
| type | enum | Type de l’outil. Actuellement, seule function est prise en charge.Valeurs possibles : function |
No |
chatCompletionStreamOptions
Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le message data: [DONE]. Le champ usage de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le champ choices sera toujours un tableau vide. Tous les autres blocs incluent également un champ usage, mais avec une valeur Null. |
No |
chatCompletionChoiceLogProbs
Informations de probabilité logarithmique pour le choix.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. | Yes | |
| refusal | array | Liste des jetons de refus de message avec des informations de probabilité logarithmique. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton. |
Yes | |
| logprob | number | La probabilité logarithmique de ce jeton. | Yes | |
| token | string | Jeton. | Yes | |
| top_logprobs | array | Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. |
Yes |
chatCompletionResponseMessage
Message de complétion de conversation généré par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. | No | |
| └─ données | string | Octets audio encodés en base64 générés par le modèle, au format spécifié dans la requête. |
No | |
| └─ expires_at | integer | Horodateur UNIX (en secondes) indiquant quand cette réponse audio n’est plus accessible sur le serveur pour une utilisation dans des conversations multitours. |
No | |
| └─ identifiant | string | Identificateur unique pour cette réponse audio. | No | |
| └─ transcription | string | Transcription de l’audio généré par le modèle. | No | |
| content | string | Contenu du message. | Yes | |
| context | azureChatExtensionsMessageContext | Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. | No | |
| function_call | chatCompletionFunctionCall | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. |
No | |
| refusal | string | Message de refus généré par le modèle. | Yes | |
| role | chatCompletionResponseMessageRole | Le rôle de l’auteur du message de réponse. | Yes | |
| tool_calls | array | Appels d’outils générés par le modèle, par exemple les appels de fonction. | No |
chatCompletionResponseMessageRole
Le rôle de l’auteur du message de réponse.
| Property | Value |
|---|---|
| Description | Le rôle de l’auteur du message de réponse. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si des outils sont présents.
Ce composant peut être l’un des éléments suivants :
chatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ Nom | string | Nom de la fonction à appeler. | No | |
| type | enum | Type de l’outil. Actuellement, seule function est prise en charge.Valeurs possibles : function |
Yes |
ParallelToolCalls
Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.
Aucune propriété définie pour ce composant.
PredictionContent
Contenu de sortie prédite statique, tel que le contenu d’un fichier texte en cours de régénération.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle. Si les jetons générés correspondent à ce contenu, l’ensemble de la réponse du modèle peut être retournée beaucoup plus rapidement. | Yes | |
| type | enum | Le type de contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.Valeurs possibles : content |
Yes |
chatCompletionMessageToolCalls
Appels d’outils générés par le modèle, par exemple les appels de fonction.
Aucune propriété définie pour ce composant.
ChatCompletionModalities
Types de sorties que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :
["text"]
Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :
["text", "audio"]
Aucune propriété définie pour ce composant.
chatCompletionFunctionCall
Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | Yes | |
| name | string | Nom de la fonction à appeler. | Yes |
completionUsage
Statistiques d’utilisation pour la demande d’achèvement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons dans la complétion générée. | Yes | |
| completion_tokens_details | object | Répartition des jetons utilisés dans une saisie semi-automatique. | No | |
| └─ jetons_de_prédiction_acceptés | integer | Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction qui apparaissent dans l’achèvement. | No | |
| └─ audio_tokens | integer | Jetons audio d’entrée générés par le modèle. | No | |
| └─ jetons_de_raisonnement | integer | Jetons générés par le modèle pour le raisonnement. | No | |
| └─ jetons_de_prédiction_rejetés | integer | Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction qui n’apparaissent pas dans l’achèvement. Toutefois, comme pour les jetons de raisonnement, ces jetons sont toujours comptés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. | No | |
| prompt_tokens | integer | Nombre de jetons dans l’invite. | Yes | |
| prompt_tokens_details | object | Détails de jetons de requête. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio présents dans l’invite. | No | |
| └cached_tokens | integer | Nombre de jetons de requête mis en cache. | No | |
| total_tokens | integer | Nombre total de jetons utilisés dans la requête (prompt + complétion). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Type de l’outil. Actuellement, seule function est prise en charge.Valeurs possibles : function |
Yes |
FunctionParameters
Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.
L’omission de parameters définit une fonction avec une liste de paramètres vide.
Aucune propriété définie pour ce composant.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| parameters | FunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON.
Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format. L’omission de parameters définit une fonction avec une liste de paramètres vide. |
No | |
| strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le champ parameters. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini : textValeurs possibles : text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini : json_objectValeurs possibles : json_object |
Yes |
ResponseFormatJsonSchemaSchema
Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.
Aucune propriété définie pour ce composant.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Une description de à quoi sert le format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format. | No | |
| └─ Nom | string | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | No | |
| └─ Schéma | ResponseFormatJsonSchemaSchema | Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. | No | |
| └─ strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. |
No | False |
| type | enum | Type de format de réponse défini : json_schemaValeurs possibles : json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Requête de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Le fichier audio à traduire. | Yes | |
| prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. | No | 0 |
audioResponse
Réponse de traduction ou de transcription lorsque response_format était json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texte traduit ou transcrit. | Yes |
audioVerboseResponse
Réponse de traduction ou de transcription lorsque response_format était verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Type de tâche audio. | No | |
| text | string | Texte traduit ou transcrit. | Yes | |
| words | array | No |
audioResponseFormat
Définit le format de la sortie.
| Property | Value |
|---|---|
| Description | Définit le format de la sortie. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Requête de transcription.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | L’objet de fichier audio à transcrire. | Yes | |
| language | string | La langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. | No | |
| prompt | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. | No | 0 |
| timestamp_granularities[] | array | Les granularités d’horodatage à remplir pour cette transcription.
response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
audioSegment
Segment de transcription ou de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilité logarithmique moyenne. | No | |
| compression_ratio | number | Taux de compression. | No | |
| end | number | Décalage de fin de segment. | No | |
| id | integer | Identificateur de segment. | No | |
| no_speech_prob | number | Probabilité de « no speech ». | No | |
| seek | number | Décalage du segment. | No | |
| start | number | Décalage de début du segment. | No | |
| temperature | number | Temperature. | No | |
| text | string | Texte du segment. | No | |
| tokens | array | Jetons du texte. | No |
audioWord
Mot de transcription ou de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Décalage de fin du mot. | No | |
| start | number | Décalage de début du mot. | No | |
| word | string | Word | No |
createSpeechRequest
Demande de voix.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| response_format | enum | Le format dans lequel synthétiser l’audio. Valeurs possibles : mp3, , opusaac, flac, wavpcm |
No | |
| speed | number | La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0.
1.0 est la valeur par défaut. |
No | 1.0 |
| voice | enum | La voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, , echofable, onyx, novashimmer |
Yes |
imageQuality
La qualité de l’image qui sera générée.
| Property | Value |
|---|---|
| Description | La qualité de l’image qui sera générée. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Format dans lequel les images générées sont retournées.
| Property | Value |
|---|---|
| Description | Format dans lequel les images générées sont retournées. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série.
| Property | Value |
|---|---|
| Description | Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
Taille des images générées.
| Property | Value |
|---|---|
| Description | Taille des images générées. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Le style des images générées. Uniquement prise en charge pour dall-e-3.
| Property | Value |
|---|---|
| Description | Le style des images générées. Uniquement prise en charge pour dall-e-3. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1.
| Property | Value |
|---|---|
| Description | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. | No | auto |
| n | integer | Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. | No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. | No | 100 |
| output_format | imagesOutputFormat | Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. | No | png |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour les modèles de série gpt-image-1 et 4 000 caractères pour dall-e-3 | Yes | |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. Uniquement prise en charge pour dall-e-3. | No | url |
| size | imageSize | Taille des images générées. | No | auto |
| style | imageStyle | Le style des images générées. Uniquement prise en charge pour dall-e-3. | No | vivid |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | chaîne ou tableau | Image à modifier. Doit être un fichier d'image compatible ou un tableau d'images. Chaque image doit être un fichier png ou jpg inférieur à 25 Mo. | Yes | |
| mask | string | Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. | No | |
| n | integer | Nombre d’images à générer. | No | 1 |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. | Yes | |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | No | url |
| size | imageSize | Taille des images générées. | No | auto |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Le timestamp unix lors de la création de l’opération. | Yes | |
| data | array | Les données de résultat de l’opération, en cas de réussite | Yes | |
| usage | imageGenerationsUsage | Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1. | No |
imageResult
L’URL de l’image ou l’image encodée en cas de réussite et une erreur dans le cas contraire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | L’image encodée en base64 | No | |
| content_filter_results | dalleContentFilterResults | Informations sur les résultats du filtrage de contenu. | No | |
| prompt_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. | No | |
| revised_prompt | string | Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. | No | |
| url | string | L’URL de l’image. | No |
imageGenerationsUsage
Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Nombre de jetons d’entrée. | No | |
| input_tokens_details | object | Répartition détaillée des jetons d’entrée. | No | |
| └image_tokens | integer | Nombre de jetons d’image. | No | |
| └─ text_tokens | integer | Nombre de jetons de texte. | No | |
| output_tokens | integer | Nombre de jetons de sortie. | No | |
| total_tokens | integer | Nombre total de jetons utilisés. | No |
line
Un objet de ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Un tableau d’étendues qui représentent les objets détectés et leurs informations de cadre englobant. | Yes | |
| text | string | Yes |
span
Un objet d’étendue qui représente un objet détecté et ses informations de cadre englobant.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | La longueur de l’étendue en caractères, mesurée en points de code Unicode. | Yes | |
| offset | integer | Le décalage de caractère dans le texte où l’étendue commence. Ce décalage est défini comme la position du premier caractère de l’étendue, en comptant à partir du début du texte en tant que points de code Unicode. | Yes | |
| polygon | array | Un tableau d’objets représentant des points dans le polygone qui entoure l’objet détecté. | Yes | |
| text | string | Le contenu texte de l’étendue qui représente l’objet détecté. | Yes |
runCompletionUsage
Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons d’achèvement utilisés au cours de l’exécution. | Yes | |
| prompt_tokens | integer | Nombre de jetons de prompt utilisés au cours de l’exécution. | Yes | |
| total_tokens | integer | Nombre total de jetons utilisés (prompt + achèvement). | Yes |
runStepCompletionUsage
Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. | Yes | |
| prompt_tokens | integer | Nombre de jetons de prompt utilisés au cours de l’étape d’exécution. | Yes | |
| total_tokens | integer | Nombre total de jetons utilisés (prompt + achèvement). | Yes |
assistantsApiResponseFormatOption
Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.
La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Ce composant peut être l’un des éléments suivants :
assistantsApiResponseFormat
Un objet décrivant la sortie attendue du modèle. Si json_object, seul les types de functiontools sont autorisés à être passés à l’exécution. Si text, le modèle peut retourner du texte ou n’importe quelle valeur nécessaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Doit être text ou json_object. |
No | text |
Énumération de type : AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Représente un assistant qui peut appeler le modèle et utiliser des outils.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) de la création de l’assistant. | Yes | |
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| instructions | string | Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères. |
Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Yes | |
| model | string | ID du modèle à utiliser. | Yes | |
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_search ou function. |
Yes | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
Énumération d’objet : AssistantObjectType
| Value | Description |
|---|---|
| assistant | Le type d’objet, qui est toujours Assistant |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | Yes | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| └ vector_stores | array | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | No | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Énumération d’objet : DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Le type d’outil défini : code_interpreter |
Yes |
Énumération de type : assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Remplace pour l’outil de recherche de fichiers. | No | |
| └─ max_nombre_de_résultats | integer | Nombre maximal de résultats que l’outil de recherche de fichiers doit générer. La valeur par défaut est 20 pour les modèles gpt-4* et 5 pour les modèles gpt-3.5-turbo. Ce nombre doit être compris entre 1 et 50 inclus. Notez que l’outil de recherche de fichiers peut générer moins de max_num_results résultats. |
No | |
| type | string | Le type d’outil défini : file_search |
Yes |
Énumération de type : assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Le type d’outil défini : file_search |
Yes |
Énumération de type : assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Définition de fonction. | Yes | |
| └─ description | string | Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| └─ Nom | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | No | |
| └─ Paramètres | chatCompletionFunctionParameters | Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format. | No | |
| type | string | Le type d’outil défini : function |
Yes |
Énumération de type : assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Le nombre de messages les plus récents du thread lors de la construction du contexte de l’exécution. | No | |
| type | string | La stratégie de troncation à utiliser pour le thread. La valeur par défaut est auto. Si la valeur est définie sur last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définie sur auto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle, max_prompt_tokens. |
Yes |
Énumération de type : TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Ce composant peut être l’un des éléments suivants :
assistantsNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler un outil spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ Nom | string | Nom de la fonction à appeler. | No | |
| type | string | Type de l’outil. Si le type est function, le nom de la fonction doit être défini |
Yes |
Énumération de type : AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Représente une exécution sur des threads.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’assistant utilisé pour cette exécution. | Yes | |
| cancelled_at | integer | Le timestamp Unix (en secondes) lorsque l’exécution a été annulée. | Yes | |
| completed_at | integer | Horodatage Unix (en secondes) de la fin de l’exécution. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) de la création de l’exécution. | Yes | |
| expires_at | integer | Horodatage Unix (en secondes) de l’expiration de l’exécution. | Yes | |
| failed_at | integer | Horodatage Unix (en secondes) de l’échec de l’exécution. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| incomplete_details | object | Détails sur la raison pour laquelle l’exécution est incomplète. Est null si l’exécution n’est pas incomplète. |
Yes | |
| └─ raison | string | La raison pour laquelle l’exécution est incomplète. Cela pointe vers quelle limite de jeton spécifique a été atteinte au cours de l’exécution. | No | |
| instructions | string | Instructions utilisées par l’assistant pour cette exécution. | Yes | |
| last_error | object | Dernière erreur associée à cette exécution. Est null en l’absence d’erreurs. |
Yes | |
| └─ code | string | Un de server_error ou rate_limit_exceeded. |
No | |
| └─ message | string | Une description de l’erreur à l’intention des utilisateurs. | No | |
| max_completion_tokens | integer | Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution. |
Yes | |
| max_prompt_tokens | integer | Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution. |
Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Yes | |
| model | string | Le modèle utilisé par l’Assistant pour cette exécution. | Yes | |
| object | string | Le type d’objet, qui est toujours thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| required_action | object | Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. |
Yes | |
| soumettre_les_résultats_des_outils | object | Détails sur les sorties de l’outil nécessaires pour que cette exécution continue. | No | |
| └─ tool_calls | array | Une liste des appels d’outil pertinents. | No | |
| └─ type | enum | Pour l’instant, c’est toujours submit_tool_outputs.Valeurs possibles : submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
Yes | |
| started_at | integer | Horodatage Unix (en secondes) du démarrage de l’exécution. | Yes | |
| status | string | État de l’exécution, qui peut être queued, in_progress, requires_action, cancelling, cancelled, failed, completed ou expired. |
Yes | |
| temperature | number | La température d’échantillonnage utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. | No | |
| thread_id | string | ID des threads qui ont été exécutés dans le cadre de cette exécution. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Yes | |
| tools | array | Liste des outils utilisés par l’assistant pour cette exécution. | Yes | [] |
| top_p | number | La valeur d’échantillonnage du noyau utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. | No | |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | Yes | |
| usage | runCompletionUsage | Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.). |
Yes |
Énumération d’objet : runObjectType
| Value | Description |
|---|---|
| thread.run | Le type d’objet, qui est toujours thread.run |
Énumération d’état : RunObjectStatus
| Value | Description |
|---|---|
| queued | L’état de mise en file d’attente |
| in_progress | L’état in_progress |
| requires_action | L’état required_action |
| cancelling | L’état d’annulation |
| cancelled | L’état annulé |
| failed | L’état d’échec |
| completed | L’état terminé. |
| expired | L’état expiré |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. | No | |
| additional_messages | array | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | No | |
| assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | L’ID du modèle à utiliser pour lancer cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tools | array | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
No | |
| tool_outputs | array | Liste des outils pour lesquels les sorties sont envoyées. | Yes |
runToolCallObject
Objets d’appel d’outil
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Définition de fonction. | Yes | |
| └─ arguments | string | Les arguments que le modèle attend à ce que vous passiez à la fonction. | No | |
| └─ Nom | string | Nom de la fonction. | No | |
| id | string | ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les résultats de l’outil en utilisant les résultats de l’outil envoyer pour exécuter un point de terminaison. | Yes | |
| type | string | Type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours function. |
Yes |
Énumération de type : RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’assistant à utiliser pour cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| model | string | ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE]. |
No | |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant. |
No | |
| tools | array | Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier this ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. | No |
threadObject
Représente un thread qui contient des messages.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | L'horodatage Unix (en secondes) de la création du thread. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours thread. |
Yes | |
| tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
Yes | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No |
Énumération d’objet : ThreadObjectType
| Value | Description |
|---|---|
| thread | Le type d’objet de thread, qui est toujours thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Liste des messages pour démarrer le thread. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No | |
| └ vector_stores | array | Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs. |
No | |
| └─ interpréteur_de_code | object | No | ||
| file_ids | array | Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └recherche_fichier | object | No | ||
| └ vector_store_ids | array | Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Énumération d’objet : DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | État de l’objet de réponse du thread de suppression, à savoir thread.deleted. |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Représente un message au sein d’un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Le cas échéant, ID de l’assistant qui a créé ce message. | Yes | |
| attachments | array | Une liste des fichiers attachés au message et les outils auxquels ils ont été ajoutés. | Yes | |
| completed_at | integer | Le timestamp Unix (en secondes) lorsque le message s’est terminé. | Yes | |
| content | array | Contenu du message dans le tableau de texte et/ou d’images. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) de création du message. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| incomplete_at | integer | Le timestamp Unix (en secondes) lorsque le message a été marqué comme incomplet. | Yes | |
| incomplete_details | object | Sur un message incomplet, détails sur la raison pour laquelle le message est incomplet. | Yes | |
| └─ raison | string | La raison pour laquelle le message est incomplet. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours thread.message. |
Yes | |
| role | string | Entité ayant produit le message. Un de user ou assistant. |
Yes | |
| run_id | string | Le cas échéant, ID de l’exécution associée à la création de ce message. | Yes | |
| status | string | L’état du message, qui peut être in_progress, incomplete ou completed. |
Yes | |
| thread_id | string | ID des threads auquel ce message appartient. | Yes |
Énumération d’objet : MessageObjectType
| Value | Description |
|---|---|
| thread.message | Le type d’objet de message, qui est thread.message |
Énumération d’état : MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
Énumération de rôle : MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Le delta contenant les champs qui ont été modifiés dans le message. | Yes | |
| └─ Contenu | array | Contenu du message dans le tableau de texte et/ou d’images. | No | |
| └─ Rôle | string | Entité ayant produit le message. Un de user ou assistant. |
No | |
| id | string | Identificateur du message qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | string | Le type d’objet, qui est toujours thread.message.delta. |
Yes |
Énumération d’objet : MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. | No | |
| content | string | Contenu du message. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| role | string | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
Yes |
Énumération de rôle : CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Énumération d’objet : DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | État de l’objet de réponse du message de suppression |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └ file_id | string | L’ID de fichier de l’image dans le contenu du message. | No | |
| type | string | A toujours la valeur image_file. |
Yes |
Énumération de type : MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Le type de fichier image de contenu du message |
messageContentTextObject
Le contenu texte qui fait partie d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ valeur | string | Les données qui composent le texte. | No | |
| type | string | A toujours la valeur text. |
Yes |
Énumération de type : messageContentTextObjectType
| Value | Description |
|---|---|
| text | Le type d’objet de texte de contenu du message |
messageContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil de « retrieval » pour rechercher des fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └ file_id | string | L’ID du fichier spécifique à partir duquel provient la citation. | No | |
| start_index | integer | Yes | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | Yes | |
| type | string | A toujours la valeur file_citation. |
Yes |
Énumération de type : FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Le type d’objet de citation de fichier |
messageContentTextAnnotationsFilePathObject
Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └ file_id | string | L’ID du fichier généré. | No | |
| start_index | integer | Yes | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | Yes | |
| type | string | A toujours la valeur file_path. |
Yes |
Énumération de type : FilePathObjectType
| Value | Description |
|---|---|
| file_path | Le type d’objet de chemin de fichier |
messageDeltaContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └ file_id | string | L’ID de fichier de l’image dans le contenu du message. | No | |
| index | integer | L’index de la partie contenu dans le message. | Yes | |
| type | string | A toujours la valeur image_file. |
Yes |
Énumération de type : MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Le contenu texte qui fait partie d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | L’index de la partie contenu dans le message. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ valeur | string | Les données qui composent le texte. | No | |
| type | string | A toujours la valeur text. |
Yes |
Énumération de type : MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └ file_id | string | L’ID du fichier spécifique à partir duquel provient la citation. | No | |
| └─ citation | string | La citation spécifique dans le fichier. | No | |
| index | integer | L’index de l’annotation dans la partie contenu du texte. | Yes | |
| start_index | integer | No | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | No | |
| type | string | A toujours la valeur file_citation. |
Yes |
Énumération de type : MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └ file_id | string | L’ID du fichier généré. | No | |
| index | integer | L’index de l’annotation dans la partie contenu du texte. | Yes | |
| start_index | integer | No | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | No | |
| type | string | A toujours la valeur file_path. |
Yes |
Énumération de type : MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Représente une étape dans une exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’assistant associé à l’étape d’exécution. | Yes | |
| cancelled_at | integer | Horodatage Unix (en secondes) de l’annulation de l’étape d’exécution. | Yes | |
| completed_at | integer | L’horodatage Unix (en secondes) de la réalisation de l’étape d’exécution. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) pour la création de l’étape d’exécution. | Yes | |
| expired_at | integer | Horodatage Unix (en secondes) de l’expiration de l’étape d’exécution. Une étape est considérée comme expirée si l’exécution parente a expiré. | Yes | |
| failed_at | integer | Horodatage Unix (en secondes) de l’échec de l’étape d’exécution. | Yes | |
| id | string | Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_error | object | Dernière erreur associée à cette étape d’exécution. Est null en l’absence d’erreurs. |
Yes | |
| └─ code | string | Un de server_error ou rate_limit_exceeded. |
No | |
| └─ message | string | Une description de l’erreur à l’intention des utilisateurs. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours assistant.run.step. |
Yes | |
| run_id | string | ID de l’exécution dont fait partie cette étape d’exécution. | Yes | |
| status | string | L’état de l’exécution, qui peut être in_progress, cancelled, failed, completed ou expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Détails de l’étape d’exécution. | Yes | |
| thread_id | string | ID des threads qui ont été exécutés. | Yes | |
| type | string | Le type d’étape d’exécution, qui peut être message_creation ou tool_calls. |
Yes |
Énumération d’objet : RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Type d’objet, qui est toujours assistant.run.step |
Énumération de type : RunStepObjectType
| Value | Description |
|---|---|
| message_creation | L’étape d’exécution message_creation |
| tool_calls | L’étape d’exécution tool_calls |
Énumération d’état : RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | L’état d’exécution in_progress |
| cancelled | L’état d’exécution cancelled |
| failed | L’état d’exécution cancelled |
| completed | L’état d’exécution cancelled |
| expired | L’état d’exécution cancelled |
runStepDeltaObject
Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Le delta contenant les champs qui ont été modifiés dans l’étape d’exécution. | Yes | |
| └─ détails_étape | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Détails de l’étape d’exécution. | No | |
| id | string | Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | string | Le type d’objet, qui est toujours thread.run.step.delta. |
Yes |
Énumération d’objet : RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └ message_id | string | L’ID du message créé à cette étape d’exécution. | No | |
| type | string | A toujours la valeur message_creation. |
Yes |
Énumération de type : RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └ message_id | string | L’ID du message créé à cette étape d’exécution. | No | |
| type | string | A toujours la valeur message_creation. |
Yes |
Énumération de type : RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Détails de l’appel d’outil.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter, retrieval ou function. |
Yes | |
| type | string | A toujours la valeur tool_calls. |
Yes |
Énumération de type : RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Détails de l’appel d’outil.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter, file_search ou function. |
No | |
| type | string | A toujours la valeur tool_calls. |
Yes |
Énumération de type : RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | La définition de l’appel de l’outil Interpréteur de code. | Yes | |
| └─ Entrée | string | L’entrée de l’appel de l’outil Interpréteur de code. | No | |
| └─ sorties | array | Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. |
No | |
| id | string | ID de l’appel de l’outil. | Yes | |
| type | string | Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. |
Yes |
Énumération de type : RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | La définition de l’appel de l’outil Interpréteur de code. | No | |
| └─ Entrée | string | L’entrée de l’appel de l’outil Interpréteur de code. | No | |
| └─ sorties | array | Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. |
No | |
| id | string | ID de l’appel de l’outil. | No | |
| index | integer | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. |
Yes |
Énumération de type : RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | La sortie de texte de l’appel de l’outil Interpréteur de code. | Yes | |
| type | string | A toujours la valeur logs. |
Yes |
Énumération de type : RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | L’index de la sortie dans le tableau de sorties. | Yes | |
| logs | string | La sortie de texte de l’appel de l’outil Interpréteur de code. | No | |
| type | string | A toujours la valeur logs. |
Yes |
Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └ file_id | string | L’ID de fichier de l’image. | No | |
| type | string | A toujours la valeur image. |
Yes |
Énumération de type : RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └ file_id | string | L’ID de fichier de l’image. | No | |
| index | integer | L’index de la sortie dans le tableau de sorties. | Yes | |
| type | string | A toujours la valeur image. |
Yes |
Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Pour l’instant, il s’agit toujours d’un objet vide. | Yes | |
| ─ résultats | array | Résultats de la recherche de fichiers. | No | |
| id | string | L’ID de l’objet d’appel d’outil. | Yes | |
| type | string | Le type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil. |
Yes |
Énumération de type : RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Instance de résultat de la recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du résultat trouvé. Le contenu est inclus uniquement s’il est demandé via le paramètre de requête Include. | No | |
| file_id | string | ID du fichier dans lequel le résultat a été trouvé. | Yes | |
| file_name | string | Nom du fichier dans lequel le résultat a été trouvé. | Yes | |
| score | number | Score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Pour l’instant, il s’agit toujours d’un objet vide. | Yes | |
| id | string | L’ID de l’objet d’appel d’outil. | No | |
| index | integer | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Le type d’appel d’outil. Cela va toujours être retrieval pour ce type d’appel d’outil. |
Yes |
Énumération de type : RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La définition de la fonction appelée. | Yes | |
| └─ arguments | string | Arguments passés à la fonction. | No | |
| └─ Nom | string | Nom de la fonction. | No | |
| └─ output | string | La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. |
No | |
| id | string | L’ID de l’objet d’appel d’outil. | Yes | |
| type | string | Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. |
Yes |
Énumération de type : RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La définition de la fonction appelée. | No | |
| └─ arguments | string | Arguments passés à la fonction. | No | |
| └─ Nom | string | Nom de la fonction. | No | |
| └─ output | string | La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. |
No | |
| id | string | L’ID de l’objet d’appel d’outil. | No | |
| index | integer | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. |
Yes |
Énumération de type : RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
La stratégie d’expiration d’un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at. |
Yes | |
| days | integer | Le nombre de jours après l’heure d’ancre correspondant à l’expiration du magasin de vecteurs. | Yes |
Énumération d’ancre : VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. |
vectorStoreObject
Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été créé. | Yes | |
| expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | No | |
| expires_at | integer | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs expirera. | No | |
| file_counts | object | Yes | ||
| └' annulé | integer | Le nombre de fichiers annulés. | No | |
| └' terminé | integer | Le nombre de fichiers qui ont été traités avec succès. | No | |
| Échec | integer | Le nombre de fichiers qui n’ont pas pu être traités. | No | |
| └ en_cours | integer | Le nombre de fichiers en cours de traitement. | No | |
| └─ total | integer | Le nombre total de fichiers. | No | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_active_at | integer | Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été actif pour la dernière fois. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
Yes | |
| name | string | Le nom du magasin de vecteurs. | Yes | |
| object | enum | Le type d’objet, qui est toujours vector_store.Valeurs possibles : vector_store |
Yes | |
| status | string | L’état du magasin de vecteurs, qui peut être expired, in_progress ou completed. L’état completed indique que le magasin de vecteurs est prêt à être utilisé. |
Yes | |
| usage_bytes | integer | Le nombre total d’octets utilisés par les fichiers dans le magasin de vecteurs. | Yes |
Énumération d’état : VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
No | |
| expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | No | |
| file_ids | array | Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| name | string | Le nom du magasin de vecteurs. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La stratégie d’expiration d’un magasin de vecteurs. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères. |
No | |
| name | string | Le nom du magasin de vecteurs. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Énumération d’objet : DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | État de l’objet de réponse de suppression du magasin de vecteurs |
vectorStoreFileObject
Une liste de fichiers attachés à un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. |
No | |
| created_at | integer | Le timestamp Unix (en secondes) lorsque le fichier de magasin de vecteurs a été créé. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_error | object | La dernière erreur associée à ce fichier de magasin de vecteurs. Est null en l’absence d’erreurs. |
Yes | |
| └─ code | string | L’un des suivants : server_error, invalid_file ou unsupported_file. |
No | |
| └─ message | string | Une description de l’erreur à l’intention des utilisateurs. | No | |
| object | string | Le type d’objet, qui est toujours vector_store.file. |
Yes | |
| status | string | L’état du fichier de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé. |
Yes | |
| usage_bytes | integer | L’utilisation totale du magasin de vecteurs en octets. Notez qu’elle peut être différente de la taille du fichier d’origine. | Yes | |
| vector_store_id | string | L’ID du magasin de vecteurs auquel le fichier est attaché. | Yes |
Énumération d’objet : VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
Énumération d’état : VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Cet élément est retourné quand la stratégie de segmentation est inconnue. Généralement, cela est dû au fait que le fichier a été indexé avant l’introduction du concept chunking_strategy dans l’API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | A toujours la valeur other. |
Yes |
type Enum : OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | A toujours la valeur static. |
Yes |
type Enum : StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Nombre de jetons qui se chevauchent entre segmentations. La valeur par défaut est 400.Notez que le chevauchement ne doit pas excéder la moitié de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Nombre maximal de jetons dans chaque segmentation. La valeur par défaut est 800. La valeur minimale est 100, alors que la valeur maximale est 4096. |
Yes |
autoChunkingStrategyRequestParam
Stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | A toujours la valeur auto.Valeurs possibles : auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | A toujours la valeur static.Valeurs possibles : static |
Yes |
chunkingStrategyRequestParam
Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto.
Ce composant peut être l’un des éléments suivants :
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. |
No | |
| file_id | string | Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
Énumération d’objet : DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Un lot de fichiers attaché à un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Le timestamp Unix (en secondes) lorsque le lot de fichiers de magasin de vecteurs a été créé. | Yes | |
| file_counts | object | Yes | ||
| └' annulé | integer | Le nombre de fichiers annulés. | No | |
| └' terminé | integer | Le nombre de fichiers qui ont été traités. | No | |
| Échec | integer | Le nombre de fichiers qui n’ont pas pu être traités. | No | |
| └ en_cours | integer | Le nombre de fichiers en cours de traitement. | No | |
| └─ total | integer | Le nombre total de fichiers. | No | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | string | Le type d’objet, qui est toujours vector_store.file_batch. |
Yes | |
| status | string | L’état du lot de fichiers de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. |
Yes | |
| vector_store_id | string | L’ID du magasin de vecteurs auquel le fichier est attaché. | Yes |
Énumération d’objet : VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Énumération d’état : VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. |
No | |
| file_ids | array | Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. |
Yes |
assistantStreamEvent
Représente un événement émis lors de la diffusion en continu d'une exécution.
Chaque événement d’un flux d’événements envoyés par un serveur a un event et une propriété data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Nous émettons des événements chaque fois qu’un nouvel objet est créé, qu’il passe à un nouvel état ou qu’il fait l’objet d’un flux partiel (deltas). Par exemple, nous émettons thread.run.created lorsqu’une nouvelle exécution est créée, thread.run.completed lorsqu’une exécution est terminée, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une exécution, nous émettons un thread.message.created event, un événement thread.message.in_progress, de nombreux événements thread.message.delta et enfin un événement thread.message.completed.
Nous pouvons ajouter des événements supplémentaires au fil du temps. Nous vous recommandons donc de gérer correctement les événements inconnus dans votre code.
Ce composant peut être l’un des éléments suivants :
threadStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.created
Se produit quand une conversation est créée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Représente un thread qui contient des messages. | Yes | |
| event | string | Yes |
Données : threadObject
Énumération d’événement : ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | L’événement créé par le thread |
runStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.run.created
Se produit quand une exécution est créée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Se produit lorsqu'une exécution passe à l'état queued.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Se produit lorsqu’une exécution passe à l’état in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Se produit lorsqu'une exécution passe à l'état requires_action.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Se produit quand une exécution est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Se produit lorsqu'une exécution échoue.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Se produit lorsqu'une exécution passe à l'état cancelling.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Se produit quand une exécution est annulée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Se produit lorsqu'une exécution expire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur des threads. | Yes | |
| event | string | Yes |
Données : runObject
Énumération d’événement : RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.run.step.created
Se produit lors de la création d'une étape d'exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans une exécution. |
Yes | |
| event | string | Yes |
Données : runStepObject
Énumération d’événement : RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Se produit lorsqu’une étape d’exécution passe à un état in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans une exécution. |
Yes | |
| event | string | Yes |
Données : runStepObject
Énumération d’événement : RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Se produit lorsque des parties d'une étape d'exécution sont diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu. |
Yes | |
| event | string | Yes |
Données : runStepDeltaObject
Énumération d’événement : RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Se produit lors de la fin d'une étape d'exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans une exécution. |
Yes | |
| event | string | Yes |
Données : runStepObject
Énumération d’événement : RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Se produit lors de l’échec d'une étape d'exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans une exécution. |
Yes | |
| event | string | Yes |
Données : runStepObject
Énumération d’événement : RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Se produit lors de la fin d'une étape d'annulation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans une exécution. |
Yes | |
| event | string | Yes |
Données : runStepObject
Énumération d’événement : RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Se produit lors de l’expiration d'une étape d'exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans une exécution. |
Yes | |
| event | string | Yes |
Données : runStepObject
Énumération d’événement : RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.message.created
Se produit lorsqu'un message est créé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Données : messageObject
Énumération d’événement : MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Se produit lorsqu’un message passe à un état in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Données : messageObject
Énumération d’événement : MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Se produit lorsque des parties d’un message sont diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu. |
Yes | |
| event | string | Yes |
Données : messageDeltaObject
Énumération d’événement : MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Se produit lorsqu'un message est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Données : messageObject
Énumération d’événement : MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Se produit lorsqu'un message se termine avant d'être achevé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Données : messageObject
Énumération d’événement : MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Ce composant peut être l’un des éléments suivants :
Click
Action de clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indique le bouton de la souris enfoncé pendant le clic.
left, right, wheel, back ou forward.Valeurs possibles : left, , rightwheel, back,forward |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours définie sur click.Valeurs possibles : click |
Yes | |
| x | integer | Coordonnée x où le clic s’est produit. |
Yes | |
| y | integer | Coordonnée y où le clic s’est produit. |
Yes |
CodeInterpreterFileOutput
Sortie d’un appel d’outil d’interpréteur de code qui est un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Type de sortie du fichier d’interpréteur de code. A toujours la valeur files.Valeurs possibles : files |
Yes |
CodeInterpreterTextOutput
Sortie d’un appel d’outil d’interpréteur de code sous forme de texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Les journaux d'activité de l’appel de l’outil Interpréteur de code. |
Yes | |
| type | enum | Type de sortie du texte de l’interpréteur de code. A toujours la valeur logs.Valeurs possibles : logs |
Yes |
CodeInterpreterTool
Outil qui exécute du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Identifiants des fichiers pour exécuter le code. |
Yes | |
| type | enum | Type de l’outil d’interpréteur de code. A toujours la valeur code_interpreter.Valeurs possibles : code_interpreter |
Yes |
CodeInterpreterToolCall
Un appel d’outil pour exécuter du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code à exécuter. |
Yes | |
| id | string | ID unique de l’appel de l’outil interpréteur de code. |
Yes | |
| results | array | Résultats de l’appel de l’outil interpréteur de code. |
Yes | |
| status | enum | Le statut de l’appel de l’outil Interpréteur de code. Valeurs possibles : in_progress, , interpretingcompleted |
Yes | |
| type | enum | Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.Valeurs possibles : code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Ce composant peut être l’un des éléments suivants :
ComparisonFilter
Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clé à comparer avec la valeur. | Yes | |
| type | enum | Spécifie l’opérateur de comparaison : eq, , negt, gtelt, . lte- eq:Égale- ne: non égal- gt : plus grand que- gte: supérieur ou égal à- lt:moins de- lte: inférieur ou égal àValeurs possibles : eq, , negt, gte, ltlte |
Yes | |
| value | chaîne ou nombre ou booléen | Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. | Yes |
CompoundFilter
Combinez plusieurs filtres à l’aide and ou or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. |
Yes | |
| type | enum | Type d’opération : and ou or.Valeurs possibles : and, or |
Yes |
ComputerAction
Ce composant peut être l’un des éléments suivants :
ComputerScreenshotImage
Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Identificateur d’un fichier chargé qui contient la capture d’écran. | No | |
| image_url | string | URL de l’image de capture d’écran. | No | |
| type | enum | Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours définie sur computer_screenshot.Valeurs possibles : computer_screenshot |
Yes |
ComputerTool
Outil qui contrôle un ordinateur virtuel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | Hauteur de l’affichage de l’ordinateur. |
Yes | |
| display_width | number | Largeur de l’affichage de l’ordinateur. |
Yes | |
| environment | enum | Type d’environnement d’ordinateur à contrôler. Valeurs possibles : mac, , windowsubuntu,browser |
Yes | |
| type | enum | Type de l’outil d’utilisation de l’ordinateur. A toujours la valeur computer_use_preview.Valeurs possibles : computer-use-preview |
Yes |
ComputerToolCall
Un appel d’outil à un outil d’utilisation d’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. |
Yes | |
| id | string | ID unique de l’appel informatique. | Yes | |
| pending_safety_checks | array | Les vérifications de sécurité en attente pour l'appel informatique. |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type de l’appel d’ordinateur. A toujours la valeur computer_call.Valeurs possibles : computer_call |
Yes |
ComputerToolCallOutput
Sortie d’un appel d’outil informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. |
No | |
| call_id | string | L'identifiant de l’appel de l’outil informatique qui a produit la sortie. |
Yes | |
| id | string | Identifiant de la sortie de l'outil informatique utilisé. |
No | |
| output | ComputerScreenshotImage | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. |
Yes | |
| status | enum | État de l’entrée de message. Valeurs possibles : in_progress, completed ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.Valeurs possibles : computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. |
No | |
| call_id | string | L'identifiant de l’appel de l’outil informatique qui a produit la sortie. |
Yes | |
| id | string | ID unique de la sortie de l’outil de gestion d'appels informatiques. |
Yes | |
| output | ComputerScreenshotImage | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. |
Yes | |
| status | enum | État de l’entrée de message. Valeurs possibles : in_progress, completed ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.Valeurs possibles : computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Une vérification de sécurité en attente pour l'appel informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Type du contrôle de sécurité en attente. | Yes | |
| id | string | ID de la vérification de sécurité en attente. | Yes | |
| message | string | Détails sur le contrôle de sécurité en attente. | Yes |
Content
Contenu d’entrée et de sortie multimodaux.
Ce composant peut être l’un des éléments suivants :
Coordinate
Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | Coordonnée x. |
Yes | |
| y | integer | La coordonnée y. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Modèle utilisé pour générer les réponses. | No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref » : « #/components/schemas/includable/description"} | No | |
| input | chaîne ou tableau | Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. | Yes | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
No | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. | No | |
| store | boolean | Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. |
No | True |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. | No | False |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés |
No | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque le réponse à l’ajustement de la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No |
DoubleClick
L'action de double clic
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action à double-clic, cette propriété est toujours définie sur double_click.Valeurs possibles : double_click |
Yes | |
| x | integer | Coordonnée x où le double-clic s’est produit. |
Yes | |
| y | integer | Coordonnée y où le double-clic s’est produit. |
Yes |
Drag
Action glisser.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Tableau de coordonnées représentant le parcours de l'action de glisser. Les coordonnées apparaissent sous la forme d’un tableau d’objets, par exemple[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours définie sur drag.Valeurs possibles : drag |
Yes |
EasyInputMessage
Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string ou InputMessageContentList | Texte, image ou entrée audio du modèle utilisé pour générer une réponse. Peut également contenir des réponses d’assistant précédentes. |
Yes | |
| role | enum | Rôle de la saisie de message. Un de user, assistant, system, ou developer.Valeurs possibles : user, , assistantsystem,developer |
Yes | |
| type | enum | Type de l’entrée de message. A toujours la valeur message.Valeurs possibles : message |
No |
FileCitation
Citation d'un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID du fichier. |
Yes | |
| index | integer | Index du fichier dans la liste des fichiers. |
Yes | |
| type | enum | Type de la citation de fichier. A toujours la valeur file_citation.Valeurs possibles : file_citation |
Yes |
FilePath
Chemin d’accès à un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID du fichier. |
Yes | |
| index | integer | Index du fichier dans la liste des fichiers. |
Yes | |
| type | enum | Type du chemin d’accès au fichier. A toujours la valeur file_path.Valeurs possibles : file_path |
Yes |
FileSearchRanker
Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé.
| Property | Value |
|---|---|
| Description | Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Outil qui recherche le contenu pertinent à partir de fichiers chargés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | No | |
| max_num_results | integer | Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. |
No | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ classificateur | enum | Outil de classement à utiliser pour la recherche de fichiers. Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. |
No | 0 |
| type | enum | Type de l’outil de recherche de fichiers. A toujours la valeur file_search.Valeurs possibles : file_search |
Yes | |
| vector_store_ids | array | ID des magasins vectoriels à rechercher. |
Yes |
FileSearchToolCall
Résultats d’un appel d’outil de recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID unique de l’appel de l’outil de recherche de fichiers. |
Yes | |
| queries | array | Requêtes utilisées pour rechercher des fichiers. |
Yes | |
| results | array | Résultats de l’appel de l’outil de recherche de fichiers. |
No | |
| status | enum | État de l'accès à l’outil de recherche de fichiers. Un des in_progress, searching, incomplete ou failed,Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed |
Yes | |
| type | enum | Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.Valeurs possibles : file_search_call |
Yes |
FunctionTool
Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de la fonction. Utilisé par le modèle pour déterminer s’il faut ou non appeler la fonction. |
No | |
| name | string | Nom de la fonction à appeler. |
Yes | |
| parameters | object | Objet de schéma JSON décrivant les paramètres de la fonction. |
Yes | |
| strict | boolean | Indique s’il faut appliquer une validation stricte des paramètres.
truepar défaut . |
Yes | |
| type | enum | Type de l’outil de fonction. A toujours la valeur function.Valeurs possibles : function |
Yes |
FunctionToolCall
Un appel d’outil pour exécuter une fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON des arguments à passer à la fonction. |
Yes | |
| call_id | string | ID unique de l’appel de l’outil fonctionnel généré par le modèle. |
Yes | |
| id | string | Identifiant unique de l'appel de l'outil fonctionnel. |
Yes | |
| name | string | Nom de la fonction à exécuter. |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.Valeurs possibles : function_call |
Yes |
FunctionToolCallOutput
Sortie d’un appel d’outil de fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID unique de l’appel de l’outil fonctionnel généré par le modèle. |
Yes | |
| id | string | Identifiant unique de l'appel de sortie de l'outil fonctionnel. Renseigné lorsque cet élément est retourné via l’API. |
No | |
| output | string | Chaîne JSON du résultat d'un appel d'outil fonction. |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.Valeurs possibles : function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID unique de l’appel de l’outil fonctionnel généré par le modèle. |
Yes | |
| id | string | Identifiant unique de l'appel de sortie de l'outil fonctionnel. |
Yes | |
| output | string | Chaîne JSON du résultat d'un appel d'outil fonction. |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.Valeurs possibles : function_call_output |
Yes |
includable
Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
-
file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers. -
message.input_image.image_url: incluez des URL d’image à partir du message d’entrée. -
computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
| Property | Value |
|---|---|
| Description | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes : - file_search_call.results : incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.- computer_call_output.output.image_url : incluez des URL d’image à partir de la sortie de l’appel d’ordinateur. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Entrée audio au modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en base64. |
Yes | |
| format | enum | Format des données audio. Actuellement, les formats pris en charge sont mp3 et wav.Valeurs possibles : mp3, wav |
Yes | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_audio.Valeurs possibles : input_audio |
Yes |
InputContent
Ce composant peut être l’un des éléments suivants :
InputFile
Entrée de fichier dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Contenu du fichier à envoyer au modèle. |
No | |
| file_id | string | ID du fichier à envoyer au modèle. |
No | |
| filename | string | Nom du fichier à envoyer au modèle. |
No | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_file.Valeurs possibles : input_file |
Yes |
InputImage
Entrée d’image dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Niveau de détail de l’image à envoyer au modèle. Valeurs possibles : high, low ou auto. La valeur par défaut est auto.Valeurs possibles : high, , lowauto |
Yes | |
| file_id | string | ID du fichier à envoyer au modèle. |
No | |
| image_url | string | URL de l’image à envoyer au modèle. Une URL complète ou une image encodée en base64 dans une URL de données. |
No | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_image.Valeurs possibles : input_image |
Yes |
InputItem
Ce composant peut être l’un des éléments suivants :
InputMessage
Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent types. |
Yes | |
| role | enum | Rôle de la saisie de message. Valeurs possibles : user, system ou developer.Valeurs possibles : user, , systemdeveloper |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’entrée de message. Toujours défini sur message.Valeurs possibles : message |
No |
InputMessageContentList
Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant différents types de contenu.
Aucune propriété définie pour ce composant.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent types. |
Yes | |
| id | string | L’ID unique de l’entrée du message. |
Yes | |
| role | enum | Rôle de la saisie de message. Valeurs possibles : user, system ou developer.Valeurs possibles : user, , systemdeveloper |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’entrée de message. Toujours défini sur message.Valeurs possibles : message |
No |
InputText
Entrée de texte dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Entrée de texte dans le modèle. |
Yes | |
| type | enum | Type de l’élément d’entrée. A toujours la valeur input_text.Valeurs possibles : input_text |
Yes |
Item
Élément de contenu utilisé pour générer une réponse.
Ce composant peut être l’un des éléments suivants :
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Identificateur interne d’un élément à référencer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID de l’élément à référencer. |
Yes | |
| type | enum | Type d’élément à référencer. A toujours la valeur item_reference.Valeurs possibles : item_reference |
Yes |
ItemResource
Élément de contenu utilisé pour générer une réponse.
Ce composant peut être l’un des éléments suivants :
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Une collection de séquences de touches que le modèle souhaite effectuer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de pression de touche, cette propriété est toujours définie à keypress.Valeurs possibles : keypress |
Yes |
Metadata
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Aucune propriété définie pour ce composant.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Modèle utilisé pour générer les réponses. | No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
Move
Action de déplacement de la souris.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours définie sur move.Valeurs possibles : move |
Yes | |
| x | integer | Coordonnée x vers laquelle se déplacer. |
Yes | |
| y | integer | La coordonnée y vers laquelle se déplacer. |
Yes |
OutputAudio
Sortie audio du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en base64 à partir du modèle. |
Yes | |
| transcript | string | Transcription des données audio du modèle. |
Yes | |
| type | enum | Type de l’audio de sortie. A toujours la valeur output_audio.Valeurs possibles : output_audio |
Yes |
OutputContent
Ce composant peut être l’un des éléments suivants :
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Chaîne JSON des arguments à passer à la fonction. |
Yes | |
| call_id | string | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. |
Yes | |
| content | array | Contenu du texte de raisonnement. |
Yes | |
| id | string | Identificateur unique du contenu du raisonnement. |
Yes | |
| name | string | Nom de la fonction à exécuter. |
Yes | |
| pending_safety_checks | array | Les vérifications de sécurité en attente pour l'appel informatique. |
Yes | |
| queries | array | Requêtes utilisées pour rechercher des fichiers. |
Yes | |
| results | array | Résultats de l’appel de l’outil de recherche de fichiers. |
No | |
| role | enum | Rôle du message de sortie. A toujours la valeur assistant.Valeurs possibles : assistant |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type de l’objet. A toujours la valeur reasoning.Valeurs possibles : reasoning |
Yes |
OutputMessage
Message de sortie du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du message de sortie. |
Yes | |
| id | string | ID unique du message de sortie. |
Yes | |
| role | enum | Rôle du message de sortie. A toujours la valeur assistant.Valeurs possibles : assistant |
Yes | |
| status | enum | État de l’entrée de message. Valeurs possibles : in_progress, completed ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type du message de sortie. A toujours la valeur message.Valeurs possibles : message |
Yes |
OutputText
Sortie de texte du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Annotations de la sortie de texte. |
Yes | |
| text | string | Le texte généré par le modèle. |
Yes | |
| type | enum | Type du texte de sortie. A toujours la valeur output_text.Valeurs possibles : output_text |
Yes |
RealtimeSessionCreateRequest
Configuration de l’objet session en temps réel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être réglée sur null pour désactiver une fois activée. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ Langue | string | La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ Modèle | string | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1. |
No | |
| └─ invite | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| instructions | string | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| model | string | Nom du déploiement utilisé pour cette session. |
No | |
| output_audio_format | enum | Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales. |
No | 0.8 |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction. |
No | auto |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. |
No | True |
| └─ enthousiasme | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit. |
No | True |
| prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └durée_du_silence_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur. |
No | |
| └─ seuil | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Nouvelle configuration de session en temps réel, avec une clé éphémère. La durée de vie par défaut des clés est d’une minute.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clé éphémère retournée par l’API. | Yes | |
| └─ expires_at | integer | Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute. |
No | |
| └─ valeur | string | Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur. |
No | |
| input_audio_format | string | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être réglée sur null pour désactiver une fois activée. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via Whisper et doit être traitée comme des instructions approximatives plutôt que la représentation comprise par le modèle. |
No | |
| └─ Modèle | string | Le modèle à utiliser pour la transcription whisper-1 est le seul modèle actuellement pris en charge. |
No | |
| instructions | string | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| output_audio_format | string | Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw. |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0,8. |
No | |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction. |
No | |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de virage. Peut être mis à null pour désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. |
No | |
| prefix_padding_ms | integer | Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └durée_du_silence_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur. |
No | |
| └─ seuil | number | Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | string | Actuellement, seul le type de détection de tour server_vad est pris en charge. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuration de l’objet de session de transcription en temps réel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants : - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ Langue | string | La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ Modèle | enum | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.Valeurs possibles : gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ invite | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| └─ enthousiasme | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └durée_du_silence_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur. |
No | |
| └─ seuil | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Nouvelle configuration de session de transcription en temps réel.
Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. La durée de vie par défaut des clés est d’une minute. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clé éphémère retournée par l’API. Présente uniquement lorsque la session est créée sur le serveur via l’API REST. |
Yes | |
| └─ expires_at | integer | Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute. |
No | |
| └─ valeur | string | Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur. |
No | |
| input_audio_format | string | Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw. |
No | |
| input_audio_transcription | object | Configuration du modèle de transcription. |
No | |
| └─ Langue | string | La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ Modèle | enum | Modèle à utiliser pour la transcription. Peut être gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 ou whisper-1.Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ invite | string | Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| turn_detection | object | Configuration pour la détection de virage. Peut être mis à null pour désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. |
No | |
| prefix_padding_ms | integer | Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └durée_du_silence_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur. |
No | |
| └─ seuil | number | Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | string | Actuellement, seul le type de détection de tour server_vad est pris en charge. |
No |
Reasoning
Options de configuration pour les modèles de raisonnement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse. |
Yes | medium |
| summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un de concise ou detailed.Valeurs possibles : concise, detailed |
No |
ReasoningItem
Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du texte de raisonnement. |
Yes | |
| id | string | Identificateur unique du contenu du raisonnement. |
Yes | |
| status | enum | État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’objet. A toujours la valeur reasoning.Valeurs possibles : reasoning |
Yes |
Refusal
Refus du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Explication du refus du modèle. |
Yes | |
| type | enum | Type de refus. A toujours la valeur refusal.Valeurs possibles : refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Horodatage Unix (en secondes) de la création de cette réponse. |
Yes | |
| error | ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. |
Yes | |
| id | string | Identificateur unique pour cette réponse. |
Yes | |
| incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. |
Yes | |
| └─ raison | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses. |
Yes | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation. |
No | |
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| model | string | Modèle utilisé pour générer les réponses. | Yes | |
| object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Yes | |
| output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
Yes | |
| output_text | string | Propriété pratique du Kit de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les éléments output_text du tableau output, le cas échéant. Pris en charge dans les kits SDK Python et JavaScript. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
Yes | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. |
No | |
| status | enum | État de la génération de réponse. Un de completed, failed, in_progress, ou incomplete.Valeurs possibles : completed, , failedin_progress,incomplete |
No | |
| temperature | number | Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux. |
Yes | 1 |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
Yes | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés |
Yes | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés. Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux. |
Yes | 1 |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| usage | ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
ResponseAudioDeltaEvent
Émis lorsqu’il existe une réponse audio partielle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Segment d’octets audio de réponse encodés en Base64. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.audio.delta.Valeurs possibles : response.audio.delta |
Yes |
ResponseAudioDoneEvent
Émis lorsque la réponse audio est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | le type de l'événement ; A toujours la valeur response.audio.done.Valeurs possibles : response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Émis lorsqu’il existe une transcription partielle de l’audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Transcription partielle de la réponse audio. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.audio.transcript.delta.Valeurs possibles : response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Émis lorsque la transcription audio complète est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | le type de l'événement ; A toujours la valeur response.audio.transcript.done.Valeurs possibles : response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Émis lorsqu’un extrait de code partiel est ajouté par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Extrait de code partiel ajouté par l’interpréteur de code. |
Yes | |
| output_index | integer | Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.code.delta.Valeurs possibles : response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Émis lorsque la sortie de l’extrait de code est finalisée par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Sortie finale de l’extrait de code par l’interpréteur de code. |
Yes | |
| output_index | integer | Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.code.done.Valeurs possibles : response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Émis lorsque l’appel de l’interpréteur de code est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| output_index | integer | Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.completed.Valeurs possibles : response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Émis lorsqu’un appel d’interpréteur de code est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| output_index | integer | Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.in_progress.Valeurs possibles : response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Émis lorsque l’interpréteur de code interprète activement l’extrait de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| output_index | integer | Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.code_interpreter_call.interpreting.Valeurs possibles : response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Émis lorsque la réponse du modèle est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.completed.Valeurs possibles : response.completed |
Yes |
ResponseContentPartAddedEvent
Émis lorsqu’un nouveau composant de contenu est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu qui a été ajoutée. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.content_part.added.Valeurs possibles : response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Émis lorsqu’un composant de contenu est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu terminée. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.content_part.done.Valeurs possibles : response.content_part.done |
Yes |
ResponseCreatedEvent
Événement émis lors de la création d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.created.Valeurs possibles : response.created |
Yes |
ResponseError
Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Code d’erreur de la réponse. |
Yes | |
| message | string | Une description de l’erreur à l’intention des utilisateurs. |
Yes |
ResponseErrorCode
Code d’erreur de la réponse.
| Property | Value |
|---|---|
| Description | Code d’erreur de la réponse. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Émis lorsqu’une erreur se produit.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code d'erreur. |
Yes | |
| message | string | Message d’erreur. |
Yes | |
| param | string | Paramètre d’erreur. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur error.Valeurs possibles : error |
Yes |
ResponseFailedEvent
Événement émis en cas d’échec d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.failed.Valeurs possibles : response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Émis lorsqu’un appel de recherche de fichiers est terminé (résultats trouvés).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie initié par l’appel de recherche de fichier. |
Yes | |
| output_index | integer | L'index de l'élément de sortie auquel l'appel de recherche de fichier est associé. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.file_search_call.completed.Valeurs possibles : response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Émis lorsqu’un appel de recherche de fichiers est lancé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie initié par l’appel de recherche de fichier. |
Yes | |
| output_index | integer | L'index de l'élément de sortie auquel l'appel de recherche de fichier est associé. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.file_search_call.in_progress.Valeurs possibles : response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Émis lorsqu'une recherche de fichier est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie initié par l’appel de recherche de fichier. |
Yes | |
| output_index | integer | Index de l’élément de sortie recherché lors de l’appel de recherche de fichier. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.file_search_call.searching.Valeurs possibles : response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Delta des arguments d’appel de fonction ajoutés. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.function_call_arguments.delta.Valeurs possibles : response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Émis lorsque des arguments d’appel de fonction sont finalisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Arguments d’appel de fonction. | Yes | |
| item_id | string | ID de l'élément. | Yes | |
| output_index | integer | Index de l’élément de sortie. | Yes | |
| type | enum | Valeurs possibles : response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Émis lorsque la réponse est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.in_progress.Valeurs possibles : response.in_progress |
Yes |
ResponseIncompleteEvent
Événement émis lorsqu’une réponse se termine comme incomplète.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | le type de l'événement ; A toujours la valeur response.incomplete.Valeurs possibles : response.incomplete |
Yes |
responseItemList
Liste des éléments de réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des éléments utilisés pour générer cette réponse. | Yes | |
| first_id | string | ID du premier élément de la liste. | Yes | |
| has_more | boolean | Indique s’il existe d’autres éléments disponibles. | Yes | |
| last_id | string | ID du dernier élément de la liste. | Yes | |
| object | enum | Le type d’objet retourné doit être list.Valeurs possibles : list |
Yes |
ResponseModalities
Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :
["text"]
Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :
["text", "audio"]
Aucune propriété définie pour ce composant.
ResponseModalitiesTextOnly
Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :
["text"]
Cette API prendra bientôt en charge d’autres modalités de sortie, y compris l’audio et les images.
Aucune propriété définie pour ce composant.
ResponseOutputItemAddedEvent
Émis lorsqu’un nouvel élément de sortie est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Index de l’élément de sortie qui a été ajouté. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_item.added.Valeurs possibles : response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Émis lorsqu’un élément de sortie est marqué comme terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Index de l’élément de sortie marqué comme terminé. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_item.done.Valeurs possibles : response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation. |
No | |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. |
No | |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés |
No | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No |
ResponseRefusalDeltaEvent
Émis lorsqu’il existe un texte de refus partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu à laquelle le texte de refus est ajouté. |
Yes | |
| delta | string | Texte de refus ajouté. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel le texte de refus est ajouté. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel le texte de refus est ajouté. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.refusal.delta.Valeurs possibles : response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Émis lorsque le texte de refus est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'index de la partie de contenu où le texte de refus est finalisé. |
Yes | |
| item_id | string | ID de l'élément de sortie pour lequel le texte de refus est finalisé. |
Yes | |
| output_index | integer | L'index de l’élément de sortie où le texte de refus est finalisé. |
Yes | |
| refusal | string | Texte de refus finalisé. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.refusal.done.Valeurs possibles : response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Index de l’annotation qui a été ajoutée. |
Yes | |
| arguments | string | Arguments d’appel de fonction. | Yes | |
| code | string | Code d'erreur. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| content_index | integer | L'index de la partie de contenu où le contenu du texte est finalisé. |
Yes | |
| delta | string | Le delta de texte qui a été ajouté. |
Yes | |
| item | OutputItem | Élément de sortie marqué comme terminé. |
Yes | |
| item_id | string | ID de l’élément de sortie pour lequel le contenu du texte est finalisé. |
Yes | |
| message | string | Message d’erreur. |
Yes | |
| output_index | integer | L'index de l’élément de sortie où le contenu du texte est finalisé. |
Yes | |
| param | string | Paramètre d’erreur. |
Yes | |
| part | OutputContent | Partie de contenu qui est effectuée. |
Yes | |
| refusal | string | Texte de refus finalisé. |
Yes | |
| response | response | Réponse incomplète. |
Yes | |
| text | string | Contenu texte finalisé. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Émis lorsqu’une annotation de texte est ajoutée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Index de l’annotation qui a été ajoutée. |
Yes | |
| content_index | integer | Index de la partie de contenu à laquelle l’annotation de texte a été ajoutée. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel l’annotation de texte a été ajoutée. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel l’annotation de texte a été ajoutée. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_text.annotation.added.Valeurs possibles : response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Émis lorsqu’il existe un delta de texte supplémentaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu à laquelle le delta de texte a été ajouté. |
Yes | |
| delta | string | Le delta de texte qui a été ajouté. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel le delta de texte a été ajouté. |
Yes | |
| output_index | integer | Index de l’élément de sortie à laquelle le delta de texte a été ajouté. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_text.delta.Valeurs possibles : response.output_text.delta |
Yes |
ResponseTextDoneEvent
Émis lorsque le contenu du texte est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L'index de la partie de contenu où le contenu du texte est finalisé. |
Yes | |
| item_id | string | ID de l’élément de sortie pour lequel le contenu du texte est finalisé. |
Yes | |
| output_index | integer | L'index de l’élément de sortie où le contenu du texte est finalisé. |
Yes | |
| text | string | Contenu texte finalisé. |
Yes | |
| type | enum | le type de l'événement ; A toujours la valeur response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
ResponseUsage
Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Nombre de jetons d’entrée. | Yes | |
| output_tokens | integer | Nombre de jetons de sortie. | Yes | |
| output_tokens_details | object | Répartition détaillée des jetons de sortie. | Yes | |
| └─ jetons_de_raisonnement | integer | Nombre de jetons de raisonnement. | No | |
| total_tokens | integer | Nombre total de jetons utilisés. | Yes |
Screenshot
Action de capture d’écran.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.Valeurs possibles : screenshot |
Yes |
Scroll
Action de défilement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Distance de défilement horizontale. |
Yes | |
| scroll_y | integer | Distance de défilement verticale. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours définie sur scroll.Valeurs possibles : scroll |
Yes | |
| x | integer | Coordonnée x où le défilement s’est produit. |
Yes | |
| y | integer | Coordonnée y où le défilement s’est produit. |
Yes |
StopConfiguration
Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Ce composant peut être l’un des éléments suivants :
TextResponseFormatConfiguration
Objet spécifiant le format que le modèle doit générer.
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour les modèles gpt-4o et versions ultérieures :
Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
Ce composant peut être l’un des éléments suivants :
TextResponseFormatJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Une description de à quoi sert le format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format. |
No | |
| name | string | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. | Yes | |
| strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. |
No | False |
| type | enum | Type de format de réponse défini. A toujours la valeur json_schema.Valeurs possibles : json_schema |
Yes |
Tool
Ce composant peut être l’un des éléments suivants :
ToolChoiceFunction
Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de la fonction à appeler. | Yes | |
| type | enum | Pour l’appel de fonction, le type est toujours function.Valeurs possibles : function |
Yes |
ToolChoiceOptions
Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
| Property | Value |
|---|---|
| Description | Contrôle l’outil (le cas échéant) appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Indique que le modèle doit utiliser un outil intégré pour générer une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type d’outil hébergé que le modèle doit utiliser. Les valeurs autorisées sont les suivantes : - file_search- computer_use_previewValeurs possibles : file_search, computer_use_preview |
Yes |
Type
Une action pour saisir du texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texte à taper. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de type, cette propriété est toujours définie sur type.Valeurs possibles : type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres. |
Yes |
UrlCitation
Citation d’une ressource web utilisée pour générer une réponse de modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Index du dernier caractère de la citation d’URL dans le message. |
Yes | |
| start_index | integer | Index du premier caractère de la citation d’URL dans le message. |
Yes | |
| title | string | Titre de la ressource web. |
Yes | |
| type | enum | Type de la citation d’URL. A toujours la valeur url_citation.Valeurs possibles : url_citation |
Yes | |
| url | string | URL de la ressource web. |
Yes |
VectorStoreFileAttributes
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.
Aucune propriété définie pour ce composant.
VectorStoreFileContentResponse
Représente le contenu analysé d’un fichier de stockage vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Contenu analysé du fichier. | Yes | |
| has_more | boolean | Indique s’il y a plus de pages de contenu à extraire. | Yes | |
| next_page | string | Jeton de navigation pour la page suivante, si disponible. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.file_content.pageValeurs possibles : vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | No | |
| max_num_results | integer | Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. | No | 10 |
| query | chaîne ou tableau | Chaîne de requête pour une recherche | Yes | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ classificateur | enum | Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenu texte retourné par la recherche. | Yes | |
| type | enum | Type de contenu. Valeurs possibles : text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres. |
Yes | |
| content | array | Blocs de contenu du fichier. | Yes | |
| file_id | string | ID du fichier de stockage de vecteurs. | Yes | |
| filename | string | Nom du fichier de stockage de vecteurs. | Yes | |
| score | number | Score de similarité pour le résultat. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des éléments de résultat de recherche. | Yes | |
| has_more | boolean | Indique s’il y a plus de résultats à extraire. | Yes | |
| next_page | string | Jeton de navigation pour la page suivante, si disponible. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.search_results.pageValeurs possibles : vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Aucune propriété définie pour ce composant.
Wait
Une action d'attente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie sur wait.Valeurs possibles : wait |
Yes |
ReasoningEffort
Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.
| Property | Value |
|---|---|
| Description | Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Se produit lorsqu'une erreur a lieu. Cela peut être dû à une erreur interne du serveur ou à un dépassement de délai.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
Énumération d’événement : ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Se produit lorsqu'un flux se termine.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
Énumération d’événement : DoneEventEnum
| Value | Description |
|---|---|
| done |
Énumération de données : DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Étapes suivantes
Découvrez les modèles et le réglage précis avec l’API REST . Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.