Partager via


Référence d'aperçu de l'API REST Azure OpenAI dans les modèles Microsoft Foundry

Note

Ce document fait référence au portail Microsoft Foundry (classique).

🔍 Consultez la documentation Microsoft Foundry (nouvelle) pour en savoir plus sur le nouveau portail.

Cet article fournit des détails sur les points de terminaison API REST d’inférence pour Azure OpenAI.

Spécifications de l’API

La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :

  • Plan de contrôle
  • Plan de données – création
  • Plan de données – inférence

Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.

Important

Il existe maintenant une nouvelle API d’inférence en préversion. En savoir plus dans notre guide de cycle de vie des API.

API Dernière version en préversion Dernière version en disponibilité générale Specifications Description
Plan de contrôle 2025-07-01-preview 2025-06-01 Fichiers de spécifications L’API de plan de contrôle est utilisée pour les opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI.
Plan de données v1 preview v1 Fichiers de spécifications L’API du plan de données contrôle les opérations d’inférence et de création.

Authentication

Azure OpenAI offre deux méthodes d’authentification. Vous pouvez utiliser des clés API ou Microsoft Entra ID.

  • Authentification par clé API : pour ce type d’authentification, toutes les requêtes d’API doivent inclure la clé API dans l’en-tête HTTP api-key. Le Démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.

  • Authentification Microsoft Entra ID : Vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont incluses dans une requête sous la forme de l’en-tête Authorization. Le jeton fourni doit être précédé de Bearer. Par exemple : Bearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur Authentification avec Microsoft Entra ID.

Gestion des versions d'API REST

Les API de service sont versionnées à l’aide du paramètre de requête api-version. Toutes les versions suivent la structure de date AAAA-MM-JJ. Par exemple:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inférence de plan de données

Le reste de l’article couvre la version en préversion 2025-04-01-preview de la spécification d’inférence de plan de données Azure OpenAI.

Si vous recherchez de la documentation sur la dernière version de l’API en disponibilité générale, reportez-vous à la dernière API d’inférence de plan de données en disponibilité générale

Achèvements – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
best_of integer Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours – best_of doit être supérieur à n.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
No 1
echo boolean Renvoyer l’invite en plus de l’achèvement No False
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. No 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
No None
logprobs integer Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs elle est 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 des éléments dans la réponse.

La valeur maximale de logprobs est 5.
No None
max_tokens integer Nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
No 16
n integer Nombre d’achèvements à générer pour chaque invite.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
No 1
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. No 0
prompt chaîne ou tableau Prompt pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si une invite n’est pas spécifiée, le modèle est généré comme s’il s’agissait du début d’un nouveau document.
Yes
seed integer S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. No
stream boolean Indique s’il faut renvoyer la progression partielle. Si ceux-ci sont définis, les jetons sont envoyés sous forme d’événements envoyés par le serveur en tant que données seulement au fur et à mesure de leur disponibilité, le flux étant arrêté par un message data: [DONE]. Exemple de code Python.
No False
suffix string Suffixe qui vient après l’achèvement d’un texte inséré.

Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
No None
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json createCompletionResponse

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporations – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et des algorithmes Machine Learning.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de déploiement du modèle déployé.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
dimensions integer Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. No
encoding_format string Format dans lequel retourner les incorporations. La valeur peut être float ou base64. La valeur par défaut est float. No
input chaîne ou tableau Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser le nombre maximal de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide et un tableau doit avoir un nombre de dimensions inférieur ou égal à 2 048. Yes
input_type string type d’entrée de la recherche d’incorporation à utiliser No
user string Un identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus. No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json object

Examples

Example

Retourne les incorporations pour une invite donnée.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Achèvements de conversation – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Crée un achèvement pour le message de conversation

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
audio object Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.

Valeurs possibles : wav, , mp3flac, opus,pcm16
No
└─ voix enum Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.

Valeurs possibles : alloy, , echofable, onyx, novashimmer
No
data_sources array Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
No
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
No 0
function_call chaîne ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas de fonction et génère un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
No
functions array Déconseillé en faveur de tools.

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
No
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
No None
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. No False
max_completion_tokens integer Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons pouvant être générés dans la complétion de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
No
messages array Liste des messages comprenant la conversation jusqu’ici. Exemple de code Python. Yes
metadata object Étiquettes et valeurs définies par le développeur, utilisées pour filtrer les achèvements dans le tableau de bord des achèvements stockés. No
modalities ChatCompletionModalities Types de sorties que vous souhaitez que le modèle génère pour cette requête.
La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :

["text"]

Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :

["text", "audio"]
No
n integer Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n défini sur 1 pour minimiser les coûts. No 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
prediction PredictionContent Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque des parties importantes de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous générez à nouveau un fichier dont le contenu a été peu modifié. No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
No 0
reasoning_effort enum Modèles o1 uniquement

Limite l’effort de raisonnement pour les modèles de raisonnement.

Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.
Valeurs possibles : low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Activer { "type": "json_schema", "json_schema": {...} } permet les sorties structurées, ce qui garantit que le modèle respecte votre schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
seed integer Cette fonctionnalité est en version bêta.
S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons.
No
store boolean Indique si la sortie de cette requête d’achèvement de conversation doit être utilisée dans nos produits de distillation ou d’évaluation de modèle. No
stream boolean Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés sous forme d'événements envoyés par le serveur contenant uniquement des données au fur et à mesure de leur disponibilité, avec le flux terminé par un data: [DONE] message. Exemple de code Python.
No False
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
tool_choice chatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. No
tools array Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée. logprobs devez être défini sur true si ce paramètre est utilisé. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
No
user_security_context userSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même, et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Apprenez-en davantage sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json object

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée un achèvement basé sur les données Recherche Azure et l’identité managée affectée par le système.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée un achèvement basé sur les données de vecteur d’image Recherche Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée un achèvement basé sur les données vectorielles Recherche Azure, le message précédent de l’Assistant et l’identité managée affectée par l’utilisateur(-trice).

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée un achèvement pour l’index Azure Cosmos DB fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion pour la base de données Mongo fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée un achèvement pour l’index Elasticsearch fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée un achèvement pour la ressource Pinecone fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcriptions – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcrit l’audio dans la langue d’entrée.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : multipart/form-data

Name Type Description Required Default
model string ID du modèle à utiliser. Les options sont gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, whisper-1, et gpt-4o-transcribe-diarize. Yes
file string L’objet de fichier audio à transcrire. Yes
language string La langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. No
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. No 0
timestamp_granularities[] array Les granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. No ['segment']

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json object
text/plain string Texte transcrit au format de sortie (lorsque response_format était l’un des text, vtt ou srt).

Examples

Example

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traductions – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcrit et traduit l’audio d’entrée en texte anglais.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : multipart/form-data

Name Type Description Required Default
file string Le fichier audio à traduire. Yes
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. No 0

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json object
text/plain string Texte transcrit au format de sortie (lorsque response_format était l’un des textes, vtt ou srt).

Examples

Example

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Voix – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Génère de l’audio à partir du texte d’entrée.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : multipart/form-data

Name Type Description Required Default
input string Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. Yes
response_format enum Le format dans lequel synthétiser l’audio.
Valeurs possibles : mp3, , opusaac, flac, wavpcm
No
speed number La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0. 1.0 est la valeur par défaut. No 1.0
voice enum La voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, , echofable, onyx, novashimmer
Yes

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Synthétise l’audio à partir du texte fourni.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Réponses : Code d’état : 200

{
  "body": "101010101"
}

Générations d’images – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Génère un lot d’images à partir d’une légende de texte sur un déploiement de modèle de série DALL-E ou gpt-image-1 donné

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
background imageBackground Permet de définir la transparence pour l’arrière-plan des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. No auto
n integer Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. No 100
output_format imagesOutputFormat Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. No png
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour la série gpt-image-1 et 4 000 caractères pour dall-e-3 Yes
partial_images integer Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement. 0
stream boolean Modifiez l’image en mode streaming. no false
quality imageQuality La qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. Ce paramètre n’est pas pris en charge pour les modèles de la série gpt-image-1, qui retournent toujours des images codées en base64.
Valeurs possibles : url, b64_json.
No url
size imageSize Taille des images générées. No auto
style imageStyle Le style des images générées. Uniquement prise en charge pour dall-e-3. No vivid
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. No

Responses

Code d’état : 200

Description : Ok

Content-Type Type Description
application/json generateImagesResponse

Code d’état : par défaut

Description : Désolé, une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crée des images en fonction d’un prompt donné.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Réponses : Code d’état : 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Générations d’images - Modifier

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Modifie une image à partir d’une légende de texte sur un déploiement de modèle gpt-image-1 donné

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : multipart/form-data

Name Type Description Required Default
image chaîne ou tableau Image à modifier. Doit être un fichier d'image compatible ou un tableau d'images. Chaque image doit être un fichier png ou jpg inférieur à 50 Mo. Yes
input_fidelity string Contrôler l’effort que le modèle exercera pour correspondre au style et aux caractéristiques, en particulier les caractéristiques faciales, des images d’entrée. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. Prend en charge high et low. no low.
mask string Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. No
n integer Nombre d’images à générer. Doit être compris entre 1 et 10. No 1
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. Yes
quality imageQuality La qualité de l’image qui sera générée. No auto
partial_images Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement.
stream boolean Modifiez l’image en mode streaming. no false
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. No url
size imageSize Taille des images générées. No auto
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. No

Responses

Code d’état : 200

Description : Ok

Content-Type Type Description
application/json generateImagesResponse

Code d’état : par défaut

Description : Désolé, une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Répertorier – Assistants

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Retourne une liste d’Assistants.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Retourne une liste d’Assistants.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Créer – Assistant

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Créez un assistant avec un modèle et des instructions.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string Yes
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
└ vector_stores array Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Créez un assistant avec un modèle et des instructions.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obtenir – Assistant

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Récupère un assistant.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID de l’assistant à récupérer.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Récupère un assistant.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modifier – Assistant

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifie un assistant.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string Identifiant de l’assistant à modifier.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string No
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifie un assistant.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Supprimer – Assistant

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Supprimez un assistant.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string L'identifiant de l'assistant à supprimer.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Supprime un Assistant.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Créer – Thread

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Créez un fil de discussion.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
messages array Liste des messages pour démarrer le thread. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No
└ vector_stores array Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json threadObject

Examples

Example

Crée un thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obtenir – Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Récupère un thread.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à récupérer.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json threadObject

Examples

Example

Récupère un thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifier – Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifie un thread.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à modifier. Seul le metadata fichier peut être modifié.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifie un thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Supprimer – Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Supprimez un thread.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à supprimer.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Supprime un fil.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Répertorier – Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Retourne une liste de messages pour un thread donné.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads auxquels appartiennent les messages.
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
run_id query No string Filtrez les messages par l’ID d’exécution qui les a générés.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

Répertorier les messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Créer – Message

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Créer un message.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads pour lesquels créer un message.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
attachments array Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. No
content string Contenu du message. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
role string Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.
- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Yes

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json messageObject

Examples

Example

Créer un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obtenir – Message

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Récupérez un message.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads auxquels ce message appartient.
message_id path Yes string ID du message à récupérer.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json messageObject

Examples

Example

Récupérez un message.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifier – Message

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifie un message.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel ce message appartient.
message_id path Yes string ID du message à modifier.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modifiez un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Créer – Thread et exécution

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Créez un thread et exécutez-le dans une seule requête.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
assistant_id string ID de l’assistant à utiliser pour cette exécution. Yes
instructions string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. No
max_completion_tokens integer Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
No
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject

Examples

Example

Créez un thread et exécutez-le dans une seule requête.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Répertorier – Exécutions

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retourne une liste d’exécutions appartenant à un thread.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel appartient l’exécution du processus.
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Retourne une liste d’exécutions appartenant à un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Créer – Exécution

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Créer une exécution.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à exécuter.
include[] query No array Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content, qui permet d'extraire le contenu du résultat de la recherche de fichiers.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. No
additional_messages array Ajoute des messages supplémentaires au thread avant de créer l’exécution. No
assistant_id string ID de l’assistant à utiliser pour cette exécution. Yes
instructions string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. No
max_completion_tokens integer Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string L’ID du modèle à utiliser pour lancer cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère un message à la place.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tools array Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject

Examples

Example

Créer une exécution.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obtenir – Exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Récupère une exécution.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads qui ont été exécutés.
run_id path Yes string ID de l’exécution à récupérer.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject

Examples

Example

Obtient une exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifier – Exécution

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifie une exécution.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads qui ont été exécutés.
run_id path Yes string ID de l’exécution à modifier.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifie une exécution.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Envoyer – Sorties d’outil à exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Lorsqu’une exécution a status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads auxquels appartient cette exécution.
run_id path Yes string ID de l’exécution qui nécessite la soumission de sortie d’outil.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
No
tool_outputs array Liste des outils pour lesquels les sorties sont envoyées. Yes

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject

Examples

Example

Lorsqu’une exécution a status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’elles sont toutes terminées. Toutes les sorties doivent être envoyées dans une seule requête.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annuler – Exécution

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Annule une exécution qui est in_progress.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel appartient cette exécution.
run_id path Yes string ID de l’exécution à annuler.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runObject

Examples

Example

Annule une exécution qui est in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Répertorier – Étapes d’exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retourne une liste des étapes d’exécution appartenant à une exécution.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L'ID du thread auquel appartiennent le cycle et les étapes de l'exécution.
run_id path Yes string L'ID de l'exécution auquel appartiennent les étapes d'exécution.
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string
include[] query No array Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content, qui permet d'extraire le contenu du résultat de la recherche de fichiers.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Retourne une liste des étapes d’exécution appartenant à une exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Obtenir – Étape d’exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Récupère une étape d’exécution.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel appartient l’exécution et l’étape d’exécution.
run_id path Yes string ID de l’exécution à laquelle appartient l’étape d’exécution.
step_id path Yes string ID de l’étape d’exécution à récupérer.
include[] query No array Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content, qui permet d'extraire le contenu du résultat de la recherche de fichiers.
api-version query Yes string

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Récupère une étape d’exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Répertorier – Magasins de vecteurs

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retourne une liste de magasins de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Retourne une liste de magasins de vecteurs.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Créer – Magasin de vecteurs

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Créez un magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. No
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. No
file_ids array Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
name string Le nom du magasin de vecteurs. No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Crée un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obtenir – Magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Récupère un magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID du magasin de vecteurs à récupérer.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Récupère un magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifier – Magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifie un magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à modifier.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
name string Le nom du magasin de vecteurs. No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifie un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Supprimer – Magasin de vecteurs

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Supprimez un magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à supprimer.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Supprime un magasin de vecteurs.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Répertorier – Fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retourne une liste de fichiers de magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartiennent les fichiers.
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
filter query No string
Valeurs possibles : in_progress, , completedfailed,cancelled
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retourne une liste de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Créer – Fichier de magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs pour lequel créer un fichier.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. No
file_id string Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Yes

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obtenir – Fichier de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Récupère un fichier de magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier récupéré.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Récupère un fichier de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Supprimer – Fichier de magasin de vecteurs

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier à supprimer.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin de vecteurs, mais le fichier lui-même n’est pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression de fichier.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Mettez à jour les attributs sur un fichier de stockage vectoriel.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier pour mettre à jour les attributs.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.
Yes

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileObject

Récupérer le contenu du fichier de stockage de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Récupérez le contenu extrait d’un fichier de stockage de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du magasin de vecteurs.
file_id path Yes string ID du fichier dans la base de données de vecteurs.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Stockage de vecteurs de recherche

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Recherchez dans une base de données de vecteurs les segments pertinents en fonction d'un filtre basé sur la requête et les attributs du fichier.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à rechercher.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
filters ComparisonFilter ou CompoundFilter Filtre à appliquer en fonction des attributs de fichier. No
max_num_results integer Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. No 10
query chaîne ou tableau Chaîne de requête pour une recherche Yes
ranking_options object Options de classement pour la recherche. No
└─ classificateur enum
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. No False

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Créer – Lot de fichiers de magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Créez un lot de fichiers de magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L'ID du magasin de vecteurs pour lequel créer un lot de fichiers.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. No
file_ids array Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Yes

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Créez un lot de fichiers de magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Réponses : Code d’état : 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Obtenir – Lot de fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Récupère un lot de fichiers de magasin de vecteurs.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers récupéré.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Récupère un lot de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annuler – Lot de fichiers du magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers à annuler.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Répertorier – Fichiers de lot de fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retourne une liste de fichiers de magasin de vecteurs dans un lot.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartiennent les fichiers.
batch_id path Yes string ID du lot de fichiers auquel appartiennent les fichiers.
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et que vous recevez 100 objets qui se terminent par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
filter query No string
Valeurs possibles : in_progress, , completedfailed,cancelled
Filtrer par état de fichier. Un des in_progress, completed, failed, cancelled.
api-version query Yes string version d’API

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retourne une liste de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Créer - Session en Temps Réel

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement session.update client. Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être réglée sur null pour désactiver une fois activée. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ Langue string La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ Modèle string Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.
No
└─ invite string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
instructions string Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.

Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
model string Nom du déploiement utilisé pour cette session.
No
output_audio_format enum Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales.
No 0.8
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction.
No auto
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit.
No True
└─ enthousiasme enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit.
No True
prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms.
No
└durée_du_silence_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur.
No
└─ seuil number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Code d’état : 200

Description : Session créée avec succès.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Créer : Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel spécifiquement pour les transcriptions en temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement transcription_session.update client. Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
include array Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :
- item.input_audio_transcription.logprobs
No
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ Langue string La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ Modèle enum Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1.

Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ invite string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription.
No True
└─ enthousiasme enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription.
No True
prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms.
No
└durée_du_silence_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur.
No
└─ seuil number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No

Responses

Code d’état : 200

Description : Session créée avec succès.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Crée un modèle de réponse.

Corps de la requête

Content-Type : application/json

Name Type Description Required Default
include array No
input chaîne ou tableau Entrées de modèle Yes
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.
No True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. Apprenez-en davantage sur l’état de conversation.
No
reasoning Reasoning Options de configuration pour les modèles de raisonnement. No
store boolean Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API.
No True
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur.
Pour plus d’informations, consultez la section Streaming ci-dessous.
No False
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus:
- Entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent le
fonctionnalités du modèle
No
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

API de Réponse - Éléments d'entrée

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Récupère une réponse de modèle avec l’ID donné.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L'ID de la réponse à récupérer.
include query No array Champs supplémentaires à inclure dans la réponse. Pour plus d’informations, consultez le include paramètre de création de réponse ci-dessus.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json response

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

Supprimer la réponse

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Supprime une réponse de modèle avec l’ID donné.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string ID de la réponse à supprimer.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Code d’état : 404

Description : Introuvable

Content-Type Type Description
application/json error

Code d’état : par défaut

Description : Service non disponible

Content-Type Type Description
application/json errorResponse

API Réponses - liste d’éléments de réponse

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retourne une liste d’éléments d’entrée pour une réponse donnée.

Paramètres d’URI

Name In Required Type Description
endpoint path Yes URL en chaîne Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string ID de la réponse pour laquelle récupérer les éléments d’entrée.
limit query No integer Limite du nombre d’objets à retourner. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Ordre dans lequel les éléments d'entrée doivent être retournés. La valeur par défaut est asc.
- asc: retourne les éléments d’entrée dans l’ordre croissant.
- desc: retourne les éléments d’entrée dans l’ordre décroissant.
after query No string ID d’élément utilisé pour répertorier les éléments suivants, dans le cadre de la pagination.
before query No string Identifiant d'article pour lister les articles précédents, utilisé pour la pagination.

En-tête de requête

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string               Exemple :Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type : oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
scope : https://cognitiveservices.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description : OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Erreur interne avec des détails supplémentaires. No
param string No
type string No

innerError

Erreur interne avec des détails supplémentaires.

Name Type Description Required Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. No
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. No

innerErrorCode

Codes d’erreur pour l’objet d’erreur interne.

Property Value
Description Codes d’erreur pour l’objet d’erreur interne.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Erreur interne avec des détails supplémentaires. No
param string No
type string No

dalleInnerError

Erreur interne avec des détails supplémentaires.

Name Type Description Required Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. No
content_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. No
revised_prompt string Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. No

contentFilterCompletionTextSpan

Permet de décrire une étendue dans le texte de saisie semi-automatique générée. Le décalage 0 est le premier code de caractère UTF32 du texte de saisie semi-automatique.

Name Type Description Required Default
completion_end_offset integer Décalage du premier code de caractère UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. Yes
completion_start_offset integer Décalage du code de caractère UTF32 qui commence l’étendue. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
URL └─ string No
└─ licence string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informations sur les résultats du filtrage de contenu.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Résultats du filtrage de contenu pour un seul prompt dans la requête.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. No
prompt_index integer No

promptFilterResults

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

Aucune propriété définie pour ce composant.

dalleContentFilterResults

Informations sur les résultats du filtrage de contenu.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail des ID de filtre de contenu pour les segments filtrés. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. No 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. No
max_completion_tokens integer Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). N’est pas compatible avec les modèles de série o1. No 4096
metadata object Étiquettes et valeurs définies par le développeur, utilisées pour filtrer les achèvements dans le tableau de bord des achèvements stockés. No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. No 0
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. No
store boolean Indique si la sortie de cette requête d’achèvement de conversation doit être utilisée dans nos produits de distillation ou d’évaluation de modèle. No
stream boolean Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un message data: [DONE]. No False
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. No

createCompletionRequest

Name Type Description Required Default
best_of integer Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
No 1
echo boolean Renvoyer l’invite en plus de l’achèvement
No False
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
No 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
No None
logprobs integer Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.

La valeur maximale de logprobs est 5.
No None
max_tokens integer Nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
No 16
n integer Nombre d’achèvements à générer pour chaque invite.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
No 1
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
No 0
prompt chaîne ou tableau Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document.
Yes
seed integer S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
No
stream boolean Indique s’il faut renvoyer la progression partielle. Si ceux-ci sont définis, les jetons sont envoyés sous forme d’événements envoyés par le serveur en tant que données seulement au fur et à mesure de leur disponibilité, le flux étant arrêté par un message data: [DONE]. Exemple de code Python.
No False
suffix string Suffixe qui vient après l’achèvement d’un texte inséré.

Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
No None
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
No

createCompletionResponse

Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés en continu partagent la même forme (contrairement au point de terminaison de conversation).

Name Type Description Required Default
choices array Liste des choix d’achèvement générés pour l’invite d’entrée. Yes
created integer Horodatage Unix (en secondes) de la création de l’achèvement. Yes
id string Identificateur unique de la saisie semi-automatique. Yes
model string Modèle utilisé pour la complétion. Yes
object enum Type d’objet, qui est toujours « text_completion »
Valeurs possibles : text_completion
Yes
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. No
system_fingerprint string Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
No
usage completionUsage Statistiques d’utilisation pour la demande d’achèvement. No

createChatCompletionRequest

Name Type Description Required Default
audio object Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.

Valeurs possibles : wav, , mp3flac, opus,pcm16
No
└─ voix enum Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.

Valeurs possibles : alloy, , echofable, onyx, novashimmer
No
data_sources array Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
No
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
No 0
function_call chaîne ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas de fonction et génère un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
No
functions array Déconseillé en faveur de tools.

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
No
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
No None
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. No False
max_completion_tokens integer Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons pouvant être générés dans la complétion de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
No
messages array Liste des messages comprenant la conversation jusqu’ici. Exemple de code Python. Yes
metadata object Étiquettes et valeurs définies par le développeur, utilisées pour filtrer les achèvements dans le tableau de bord des achèvements stockés. No
modalities ChatCompletionModalities Types de sorties que vous souhaitez que le modèle génère pour cette requête.
La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :

["text"]

Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :

["text", "audio"]
No
n integer Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n défini sur 1 pour minimiser les coûts. No 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
prediction PredictionContent Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque des parties importantes de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous générez à nouveau un fichier dont le contenu a été peu modifié. No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
No 0
reasoning_effort enum Modèles o1 uniquement

Limite l’effort de raisonnement pour les modèles de raisonnement.

Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.
Valeurs possibles : low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

La configuration de { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
seed integer Cette fonctionnalité est en version bêta.
S'il est spécifié, notre système fait tout son possible pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres doivent retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons.
No
store boolean Indique si la sortie de cette requête d’achèvement de conversation doit être utilisée dans nos produits de distillation ou d’évaluation de modèle. No
stream boolean Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés sous forme d'événements envoyés par le serveur contenant uniquement des données au fur et à mesure de leur disponibilité, avec le flux terminé par un data: [DONE] message. Exemple de code Python.
No False
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
tool_choice chatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. No
tools array Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée. logprobs devez être défini sur true si ce paramètre est utilisé. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
No
user_security_context userSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même, et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Apprenez-en davantage sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. No

userSecurityContext

Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même, et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Apprenez-en davantage sur la protection des applications IA à l’aide de Microsoft Defender for Cloud.

Name Type Description Required Default
application_name string Le nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_id string Cet identificateur est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_tenant_id string ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multilocataire. No
source_ip string Capture l’adresse IP du client d’origine, acceptant les formats IPv4 et IPv6. No

chatCompletionFunctions

Name Type Description Required Default
description string Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
parameters FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.
No

chatCompletionFunctionCallOption

La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Name Type Description Required Default
name string Nom de la fonction à appeler. Yes

chatCompletionFunctionParameters

Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format.

Aucune propriété définie pour ce composant.

chatCompletionRequestMessage

Ce composant peut être l’un des éléments suivants :

ChatCompletionRequestDeveloperMessage

Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et versions ultérieures, les messages developer remplacent les messages system précédents.

Name Type Description Required Default
content chaîne ou tableau Contenu du message du développeur. Yes
name string Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. No
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas developer.
Valeurs possibles : developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message système. Yes
name string Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. No
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas system.
Valeurs possibles : system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message de l’utilisateur.
Yes
name string Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. No
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas user.
Valeurs possibles : user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message de l’Assistant. Obligatoire, sauf si tool_calls ou function_call est spécifié.
No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. No
└─ arguments string Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ Nom string Nom de la fonction à appeler. No
name string Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. No
refusal string Message de refus de l’assistant. No
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas assistant.
Valeurs possibles : assistant
Yes
tool_calls chatCompletionMessageToolCalls Appels d’outils générés par le modèle, par exemple les appels de fonction. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message de l’outil. Yes
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas tool.
Valeurs possibles : tool
Yes
tool_call_id string Appel d’outil auquel ce message répond. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Contenu du message de fonction. Yes
name string Nom de la fonction à appeler. Yes
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : function
Yes

chatCompletionRequestDeveloperMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestSystemMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestUserMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestAssistantMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestToolMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Contenu du texte. Yes
type enum Le type de la partie contenu.
Valeurs possibles : text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ données string Données audio encodées en base64. No
└─ format enum Le format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ».

Valeurs possibles : wav, mp3
No
type enum Le type de la partie contenu. A toujours la valeur input_audio.
Valeurs possibles : input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ détail enum Spécifie le niveau de détail de l’image. Découvrez-en plus en consultant le guide de Vision.
Valeurs possibles : auto, , lowhigh
No
└─ URL string URL de l’image ou des données d’image encodées en base64. No
type enum Le type de la partie contenu.
Valeurs possibles : image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Message de refus généré par le modèle. Yes
type enum Le type de la partie contenu.
Valeurs possibles : refusal
Yes

azureChatExtensionConfiguration

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

###Discriminant pour azureChatExtensionConfiguration

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureChatExtensionType

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Property Value
Description Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Une représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource No
endpoint string Chemin d’accès du point de terminaison absolu de la ressource Recherche cognitive Azure à utiliser. Yes
fields_mapping azureSearchIndexFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource de Recherche cognitive Azure configurée. No
filter string Filtre de recherche. No
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. No
index_name string Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
query_type azureSearchQueryType Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. No
semantic_configuration string La configuration sémantique supplémentaire pour la requête. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à présenter pour la requête configurée. No

azureSearchIndexFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource de Recherche cognitive Azure configurée.

Name Type Description Required Default
content_fields array Nom des champs d’index qui doivent être traités comme du contenu. No
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin d’accès au fichier. No
image_vector_fields array Les noms des champs qui représentent des données de vecteurs d’image. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms de champs qui représentent des données vectorielles. No

azureSearchQueryType

Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Property Value
Description Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Une représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataConnectionStringAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. Yes
container_name string Le nom du conteneur de ressource SQL Azure Cosmos DB. Yes
database_name string Le nom de la base de données du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. Yes
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. No
index_name string Le nom de l’index du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à présenter pour la requête configurée. No

azureCosmosDBFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.

Name Type Description Required Default
content_fields array Nom des champs d’index qui doivent être traités comme du contenu. Yes
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin d’accès au fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms de champs qui représentent des données vectorielles. Yes

elasticsearchChatExtensionConfiguration

Une représentation spécifique des options configurables pour Elasticsearch lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource No
endpoint string Point de terminaison d’Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. No
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. No
index_name string Nom d’index de Elasticsearch®. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
query_type elasticsearchQueryType Type de requêtes de récupération Elasticsearch® qui doivent être exécutées lors de son utilisation en tant qu’extension de conversation Azure OpenAI. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à présenter pour la requête configurée. No

elasticsearchIndexFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.

Name Type Description Required Default
content_fields array Nom des champs d’index qui doivent être traités comme du contenu. No
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin d’accès au fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms de champs qui représentent des données vectorielles. No

elasticsearchQueryType

Type de requêtes de récupération Elasticsearch® qui doivent être exécutées lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Property Value
Description Type de requêtes de récupération Elasticsearch® qui doivent être exécutées lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Représentation spécifique des options configurables pour MongoDB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation de MongoDB.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. No False
app_name string Nom de l’application MongoDB. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. Yes
collection_name string Nom de la collection MongoDB. Yes
database_name string Nom de la base de données MongoDB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
endpoint string Nom du point de terminaison du cluster MongoDB. Yes
fields_mapping mongoDBFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée. Yes
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. No
index_name string Nom de l’index MongoDB. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à présenter pour la requête configurée. No

mongoDBFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource MongoDB configurée.

Name Type Description Required Default
content_fields array Nom des champs d’index qui doivent être traités comme du contenu. Yes
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin d’accès au fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms de champs qui représentent des données vectorielles. Yes

pineconeChatExtensionConfiguration

Une représentation spécifique des options configurables pour Pinecone lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

pineconeChatExtensionParameters

Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la demande échoue si toutes les requêtes échouent. Si la valeur n’est pas spécifiée ou si elle est false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataApiKeyAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI. Yes
environment string Le nom de l’environnement de Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. Yes
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si elle n’est pas spécifiée, la valeur par défaut est citations et intent. No
index_name string Le nom de l’index de base de données Pinecone. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à présenter pour la requête configurée. No

pineconeFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.

Name Type Description Required Default
content_fields array Nom des champs d’index qui doivent être traités comme du contenu. Yes
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin d’accès au fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No

onYourDataAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données.

Discriminant pour onYourDataAuthenticationOptions

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataContextProperty

La propriété de contexte.

Property Value
Description La propriété de contexte.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Les types d’authentification pris en charge avec Azure OpenAI sur vos données.

Property Value
Description Les types d’authentification pris en charge avec Azure OpenAI sur vos données.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.

Name Type Description Required Default
key string Clé API à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataConnectionStringAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.

Name Type Description Required Default
connection_string string La chaîne de connexion à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une paire clé et ID de clé Elasticsearch.

Name Type Description Required Default
key string Clé Elasticsearch à utiliser pour l’authentification. No
key_id string ID de clé Elasticsearch à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une clé API encodée Elasticsearch.

Name Type Description Required Default
encoded_api_key string Clé API encodée Elasticsearch à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataAccessTokenAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un jeton d’accès.

Name Type Description Required Default
access_token string Le jeton d’accès à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.

Name Type Description Required Default
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.

Name Type Description Required Default
managed_identity_resource_id string ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.

Name Type Description Required Default
password string Mot de passe. à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes
username string Nom d’utilisateur à utiliser pour l’authentification. No

onYourDataVectorizationSource

Une représentation abstraite d’une source de vectorisation pour Azure OpenAI sur vos données avec la recherche vectorielle.

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Valeur de type Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataVectorizationSourceType

Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.

Property Value
Description Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un appel public du point de terminaison Azure OpenAI pour des incorporations.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions No
dimensions integer Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. No
endpoint string Spécifie l’URL du point de terminaison de la ressource à partir de laquelle les incorporations doivent être récupérées. Son format doit être https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. No
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataDeploymentNameVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.

Name Type Description Required Default
deployment_name string Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. No
dimensions integer Le nombre de dimensions que les incorporations doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. No
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataIntegratedVectorizationSource

Représente le vectoriseur intégré défini dans la ressource de recherche.

Name Type Description Required Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataModelIdVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un ID de modèle de service de recherche. Actuellement uniquement pris en charge par Elasticsearch®.

Name Type Description Required Default
model_id string Spécifie l’ID de modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. No
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

azureChatExtensionsMessageContext

Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.

Name Type Description Required Default
all_retrieved_documents array Tous les documents récupérés. No
citations array Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. No
intent string Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. No

citation

informations de citation pour un message de réponse des saisies semi-automatiques de conversation.

Name Type Description Required Default
chunk_id string ID de bloc de la citation. No
content string Contenu de la citation. Yes
filepath string Chemin d’accès au fichier de la citation. No
rerank_score number Le score de reclassement du document récupéré. No
title string Titre de la citation. No
url string URL de la citation. No

retrievedDocument

Le document récupéré.

Name Type Description Required Default
chunk_id string ID de bloc de la citation. No
content string Contenu de la citation. Yes
data_source_index integer L’index de la source de données. No
filepath string Chemin d’accès au fichier de la citation. No
filter_reason filterReason La raison de filtrage du document récupéré. No
original_search_score number Le score de recherche d’origine du document récupéré. No
rerank_score number Le score de reclassement du document récupéré. No
search_queries array Ls requêtes de recherche utilisées pour récupérer le document. No
title string Titre de la citation. No
url string URL de la citation. No

filterReason

La raison de filtrage du document récupéré.

Property Value
Description La raison de filtrage du document récupéré.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object Fonction appelée par le modèle. Yes
└─ arguments string Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ Nom string Nom de la fonction à appeler. No
id string ID de l’appel de l’outil. Yes
type toolCallType Le type de l’appel d’outil, dans ce cas function. Yes

toolCallType

Le type de l’appel d’outil, dans ce cas function.

Property Value
Description Le type de l’appel d’outil, dans ce cas function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Contenu du message. No
tool_call_id string Appel d’outil auquel ce message répond. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Contenu du message. No
name string Contenu du message. No
role enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : function
No

createChatCompletionResponse

Représente une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.

Name Type Description Required Default
choices array Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs si n est supérieur à 1. Yes
created integer Horodatage Unix (en secondes) de la création de la complétion de conversation. Yes
id string Identificateur unique de la complétion de conversation. Yes
model string Modèle utilisé pour la complétion de conversation. Yes
object enum Le type d’objet, qui est toujours chat.completion.
Valeurs possibles : chat.completion
Yes
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. No
system_fingerprint string Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
No
usage completionUsage Statistiques d’utilisation pour la demande d’achèvement. No

createChatCompletionStreamResponse

Représente un bloc diffusé en continu d’une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.

Name Type Description Required Default
choices array Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments si n est supérieur à 1.
Yes
created integer Horodatage Unix (en secondes) de la création de la complétion de conversation. Chaque bloc a le même timestamp. Yes
id string Identificateur unique de la complétion de conversation. Chaque bloc a le même ID. Yes
model string Modèle utilisé pour générer la complétion. Yes
object enum Le type d’objet, qui est toujours chat.completion.chunk.
Valeurs possibles : chat.completion.chunk
Yes
system_fingerprint string Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.
Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
No

chatCompletionStreamResponseDelta

Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.

Name Type Description Required Default
content string Contenu du message de bloc. No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. No
└─ arguments string Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ Nom string Nom de la fonction à appeler. No
refusal string Message de refus généré par le modèle. No
role enum Rôle de l’auteur de ce message.
Valeurs possibles : system, , userassistant,tool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ Nom string Nom de la fonction à appeler. No
id string ID de l’appel de l’outil. No
index integer Yes
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : function
No

chatCompletionStreamOptions

Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Name Type Description Required Default
include_usage boolean Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le message data: [DONE]. Le champ usage de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le champ choices sera toujours un tableau vide. Tous les autres blocs incluent également un champ usage, mais avec une valeur Null.
No

chatCompletionChoiceLogProbs

Informations de probabilité logarithmique pour le choix.

Name Type Description Required Default
content array Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. Yes
refusal array Liste des jetons de refus de message avec des informations de probabilité logarithmique. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation en octets pour le jeton. Yes
logprob number La probabilité logarithmique de ce jeton. Yes
token string Jeton. Yes
top_logprobs array Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. Yes

chatCompletionResponseMessage

Message de complétion de conversation généré par le modèle.

Name Type Description Required Default
audio object Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. No
└─ données string Octets audio encodés en base64 générés par le modèle, au format spécifié dans la requête.
No
└─ expires_at integer Horodateur UNIX (en secondes) indiquant quand cette réponse audio n’est plus accessible sur le serveur pour une utilisation dans des conversations multitours.
No
└─ identifiant string Identificateur unique pour cette réponse audio. No
└─ transcription string Transcription de l’audio généré par le modèle. No
content string Contenu du message. Yes
context azureChatExtensionsMessageContext Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. No
function_call chatCompletionFunctionCall Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. No
refusal string Message de refus généré par le modèle. Yes
role chatCompletionResponseMessageRole Le rôle de l’auteur du message de réponse. Yes
tool_calls array Appels d’outils générés par le modèle, par exemple les appels de fonction. No

chatCompletionResponseMessageRole

Le rôle de l’auteur du message de réponse.

Property Value
Description Le rôle de l’auteur du message de réponse.
Type string
Values assistant

chatCompletionToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents.

Ce composant peut être l’un des éléments suivants :

chatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
function object Yes
└─ Nom string Nom de la fonction à appeler. No
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : function
Yes

ParallelToolCalls

Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.

Aucune propriété définie pour ce composant.

PredictionContent

Contenu de sortie prédite statique, tel que le contenu d’un fichier texte en cours de régénération.

Name Type Description Required Default
content chaîne ou tableau Le contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle. Si les jetons générés correspondent à ce contenu, l’ensemble de la réponse du modèle peut être retournée beaucoup plus rapidement. Yes
type enum Le type de contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.
Valeurs possibles : content
Yes

chatCompletionMessageToolCalls

Appels d’outils générés par le modèle, par exemple les appels de fonction.

Aucune propriété définie pour ce composant.

ChatCompletionModalities

Types de sorties que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :

["text"]

Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :

["text", "audio"]

Aucune propriété définie pour ce composant.

chatCompletionFunctionCall

Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle.

Name Type Description Required Default
arguments string Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. Yes
name string Nom de la fonction à appeler. Yes

completionUsage

Statistiques d’utilisation pour la demande d’achèvement.

Name Type Description Required Default
completion_tokens integer Nombre de jetons dans la complétion générée. Yes
completion_tokens_details object Répartition des jetons utilisés dans une saisie semi-automatique. No
└─ jetons_de_prédiction_acceptés integer Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction qui apparaissent dans l’achèvement. No
└─ audio_tokens integer Jetons audio d’entrée générés par le modèle. No
└─ jetons_de_raisonnement integer Jetons générés par le modèle pour le raisonnement. No
└─ jetons_de_prédiction_rejetés integer Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction qui n’apparaissent pas dans l’achèvement. Toutefois, comme pour les jetons de raisonnement, ces jetons sont toujours comptés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. No
prompt_tokens integer Nombre de jetons dans l’invite. Yes
prompt_tokens_details object Détails de jetons de requête. No
└─ audio_tokens integer Jetons d’entrée audio présents dans l’invite. No
└cached_tokens integer Nombre de jetons de requête mis en cache. No
total_tokens integer Nombre total de jetons utilisés dans la requête (prompt + complétion). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : function
Yes

FunctionParameters

Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.

Aucune propriété définie pour ce composant.

FunctionObject

Name Type Description Required Default
description string Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
parameters FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.
No
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le champ parameters. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. No False

ResponseFormatText

Name Type Description Required Default
type enum Type de format de réponse défini : text
Valeurs possibles : text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Type de format de réponse défini : json_object
Valeurs possibles : json_object
Yes

ResponseFormatJsonSchemaSchema

Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.

Aucune propriété définie pour ce composant.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Une description de à quoi sert le format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format. No
└─ Nom string Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. No
└─ Schéma ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. No
└─ strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. No False
type enum Type de format de réponse défini : json_schema
Valeurs possibles : json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Requête de traduction.

Name Type Description Required Default
file string Le fichier audio à traduire. Yes
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. No 0

audioResponse

Réponse de traduction ou de transcription lorsque response_format était json

Name Type Description Required Default
text string Texte traduit ou transcrit. Yes

audioVerboseResponse

Réponse de traduction ou de transcription lorsque response_format était verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Type de tâche audio. No
text string Texte traduit ou transcrit. Yes
words array No

audioResponseFormat

Définit le format de la sortie.

Property Value
Description Définit le format de la sortie.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Requête de transcription.

Name Type Description Required Default
file string L’objet de fichier audio à transcrire. Yes
language string La langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. No
prompt string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu'à atteindre certains seuils. No 0
timestamp_granularities[] array Les granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : word ou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. No ['segment']

audioSegment

Segment de transcription ou de traduction.

Name Type Description Required Default
avg_logprob number Probabilité logarithmique moyenne. No
compression_ratio number Taux de compression. No
end number Décalage de fin de segment. No
id integer Identificateur de segment. No
no_speech_prob number Probabilité de « no speech ». No
seek number Décalage du segment. No
start number Décalage de début du segment. No
temperature number Temperature. No
text string Texte du segment. No
tokens array Jetons du texte. No

audioWord

Mot de transcription ou de traduction.

Name Type Description Required Default
end number Décalage de fin du mot. No
start number Décalage de début du mot. No
word string Word No

createSpeechRequest

Demande de voix.

Name Type Description Required Default
input string Le texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. Yes
response_format enum Le format dans lequel synthétiser l’audio.
Valeurs possibles : mp3, , opusaac, flac, wavpcm
No
speed number La vitesse de l’audio synthétisé. Sélectionnez une valeur entre 0.25 et 4.0. 1.0 est la valeur par défaut. No 1.0
voice enum La voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, , echofable, onyx, novashimmer
Yes

imageQuality

La qualité de l’image qui sera générée.

Property Value
Description La qualité de l’image qui sera générée.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Format dans lequel les images générées sont retournées.

Property Value
Description Format dans lequel les images générées sont retournées.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série.

Property Value
Description Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1.
Type string
Default png
Values png
jpeg

imageSize

Taille des images générées.

Property Value
Description Taille des images générées.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Le style des images générées. Uniquement prise en charge pour dall-e-3.

Property Value
Description Le style des images générées. Uniquement prise en charge pour dall-e-3.
Type string
Default vivid
Values vivid
natural

imageBackground

Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1.

Property Value
Description Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. No auto
n integer Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. No 100
output_format imagesOutputFormat Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. No png
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour les modèles de série gpt-image-1 et 4 000 caractères pour dall-e-3 Yes
quality imageQuality La qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. Uniquement prise en charge pour dall-e-3. No url
size imageSize Taille des images générées. No auto
style imageStyle Le style des images générées. Uniquement prise en charge pour dall-e-3. No vivid
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. No

imageEditsRequest

Name Type Description Required Default
image chaîne ou tableau Image à modifier. Doit être un fichier d'image compatible ou un tableau d'images. Chaque image doit être un fichier png ou jpg inférieur à 25 Mo. Yes
mask string Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. No
n integer Nombre d’images à générer. No 1
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. Yes
quality imageQuality La qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. No url
size imageSize Taille des images générées. No auto
user string Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. No

generateImagesResponse

Name Type Description Required Default
created integer Le timestamp unix lors de la création de l’opération. Yes
data array Les données de résultat de l’opération, en cas de réussite Yes
usage imageGenerationsUsage Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1. No

imageResult

L’URL de l’image ou l’image encodée en cas de réussite et une erreur dans le cas contraire.

Name Type Description Required Default
b64_json string L’image encodée en base64 No
content_filter_results dalleContentFilterResults Informations sur les résultats du filtrage de contenu. No
prompt_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Contient aussi des informations sur la liste de blocage du client, si elle a été filtrée et son ID. No
revised_prompt string Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. No
url string L’URL de l’image. No

imageGenerationsUsage

Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1.

Name Type Description Required Default
input_tokens integer Nombre de jetons d’entrée. No
input_tokens_details object Répartition détaillée des jetons d’entrée. No
└image_tokens integer Nombre de jetons d’image. No
└─ text_tokens integer Nombre de jetons de texte. No
output_tokens integer Nombre de jetons de sortie. No
total_tokens integer Nombre total de jetons utilisés. No

line

Un objet de ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.

Name Type Description Required Default
spans array Un tableau d’étendues qui représentent les objets détectés et leurs informations de cadre englobant. Yes
text string Yes

span

Un objet d’étendue qui représente un objet détecté et ses informations de cadre englobant.

Name Type Description Required Default
length integer La longueur de l’étendue en caractères, mesurée en points de code Unicode. Yes
offset integer Le décalage de caractère dans le texte où l’étendue commence. Ce décalage est défini comme la position du premier caractère de l’étendue, en comptant à partir du début du texte en tant que points de code Unicode. Yes
polygon array Un tableau d’objets représentant des points dans le polygone qui entoure l’objet détecté. Yes
text string Le contenu texte de l’étendue qui représente l’objet détecté. Yes

runCompletionUsage

Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.).

Name Type Description Required Default
completion_tokens integer Nombre de jetons d’achèvement utilisés au cours de l’exécution. Yes
prompt_tokens integer Nombre de jetons de prompt utilisés au cours de l’exécution. Yes
total_tokens integer Nombre total de jetons utilisés (prompt + achèvement). Yes

runStepCompletionUsage

Statistiques d’utilisation relatives à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.

Name Type Description Required Default
completion_tokens integer Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. Yes
prompt_tokens integer Nombre de jetons de prompt utilisés au cours de l’étape d’exécution. Yes
total_tokens integer Nombre total de jetons utilisés (prompt + achèvement). Yes

assistantsApiResponseFormatOption

Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.

Ce composant peut être l’un des éléments suivants :

assistantsApiResponseFormat

Un objet décrivant la sortie attendue du modèle. Si json_object, seul les types de functiontools sont autorisés à être passés à l’exécution. Si text, le modèle peut retourner du texte ou n’importe quelle valeur nécessaire.

Name Type Description Required Default
type string Doit être text ou json_object. No text

Énumération de type : AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Représente un assistant qui peut appeler le modèle et utiliser des outils.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) de la création de l’assistant. Yes
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
instructions string Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères.
Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Yes
model string ID du modèle à utiliser. Yes
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
Yes
object string Le type d’objet, qui est toujours assistant. Yes
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_search ou function.
Yes []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1

Énumération d’objet : AssistantObjectType

Value Description
assistant Le type d’objet, qui est toujours Assistant

createAssistantRequest

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système utilisées par l’assistant. La longueur maximale est de 256 000 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string Yes
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
└ vector_stores array Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système utilisées par l’assistant. La longueur maximale est de 32 768 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string No
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Remplace la liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Remplace le magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Liste des outils activés sur l’assistant. Il peut y avoir jusqu’à 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval ou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Énumération d’objet : DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Le type d’outil défini : code_interpreter Yes

Énumération de type : assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Remplace pour l’outil de recherche de fichiers. No
└─ max_nombre_de_résultats integer Nombre maximal de résultats que l’outil de recherche de fichiers doit générer. La valeur par défaut est 20 pour les modèles gpt-4* et 5 pour les modèles gpt-3.5-turbo. Ce nombre doit être compris entre 1 et 50 inclus.

Notez que l’outil de recherche de fichiers peut générer moins de max_num_results résultats.
No
type string Le type d’outil défini : file_search Yes

Énumération de type : assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Le type d’outil défini : file_search Yes

Énumération de type : assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object Définition de fonction. Yes
└─ description string Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
└─ Nom string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. No
└─ Paramètres chatCompletionFunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour obtenir des exemples, et consultez les informations de référence sur le schéma JSON pour obtenir de la documentation sur le format. No
type string Le type d’outil défini : function Yes

Énumération de type : assistantToolsFunction

Value Description
function

truncationObject

Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution.

Name Type Description Required Default
last_messages integer Le nombre de messages les plus récents du thread lors de la construction du contexte de l’exécution. No
type string La stratégie de troncation à utiliser pour le thread. La valeur par défaut est auto. Si la valeur est définie sur last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définie sur auto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle, max_prompt_tokens. Yes

Énumération de type : TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outils et génère plutôt un message. auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil. La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

Ce composant peut être l’un des éléments suivants :

assistantsNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler un outil spécifique.

Name Type Description Required Default
function object No
└─ Nom string Nom de la fonction à appeler. No
type string Type de l’outil. Si le type est function, le nom de la fonction doit être défini Yes

Énumération de type : AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Représente une exécution sur des threads.

Name Type Description Required Default
assistant_id string ID de l’assistant utilisé pour cette exécution. Yes
cancelled_at integer Le timestamp Unix (en secondes) lorsque l’exécution a été annulée. Yes
completed_at integer Horodatage Unix (en secondes) de la fin de l’exécution. Yes
created_at integer Horodatage Unix (en secondes) de la création de l’exécution. Yes
expires_at integer Horodatage Unix (en secondes) de l’expiration de l’exécution. Yes
failed_at integer Horodatage Unix (en secondes) de l’échec de l’exécution. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
incomplete_details object Détails sur la raison pour laquelle l’exécution est incomplète. Est null si l’exécution n’est pas incomplète. Yes
└─ raison string La raison pour laquelle l’exécution est incomplète. Cela pointe vers quelle limite de jeton spécifique a été atteinte au cours de l’exécution. No
instructions string Instructions utilisées par l’assistant pour cette exécution. Yes
last_error object Dernière erreur associée à cette exécution. Est null en l’absence d’erreurs. Yes
└─ code string Un de server_error ou rate_limit_exceeded. No
└─ message string Une description de l’erreur à l’intention des utilisateurs. No
max_completion_tokens integer Nombre maximal de jetons de saisie semi-automatique spécifiés comme ayant été utilisés au cours de l’exécution.
Yes
max_prompt_tokens integer Nombre maximal de jetons de prompt spécifiés comme ayant été utilisés au cours de l’exécution.
Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Yes
model string Le modèle utilisé par l’Assistant pour cette exécution. Yes
object string Le type d’objet, qui est toujours thread.run. Yes
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
required_action object Détails de l’action requise pour poursuivre l’exécution. Est null si aucune action n’est requise. Yes
soumettre_les_résultats_des_outils object Détails sur les sorties de l’outil nécessaires pour que cette exécution continue. No
└─ tool_calls array Une liste des appels d’outil pertinents. No
└─ type enum Pour l’instant, c’est toujours submit_tool_outputs.
Valeurs possibles : submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Yes
started_at integer Horodatage Unix (en secondes) du démarrage de l’exécution. Yes
status string État de l’exécution, qui peut être queued, in_progress, requires_action, cancelling, cancelled, failed, completed ou expired. Yes
temperature number La température d’échantillonnage utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. No
thread_id string ID des threads qui ont été exécutés dans le cadre de cette exécution. Yes
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Yes
tools array Liste des outils utilisés par l’assistant pour cette exécution. Yes []
top_p number La valeur d’échantillonnage du noyau utilisée pour cette exécution. Si elle n’est pas définie, la valeur par défaut est 1. No
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. Yes
usage runCompletionUsage Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, queued, etc.). Yes

Énumération d’objet : runObjectType

Value Description
thread.run Le type d’objet, qui est toujours thread.run

Énumération d’état : RunObjectStatus

Value Description
queued L’état de mise en file d’attente
in_progress L’état in_progress
requires_action L’état required_action
cancelling L’état d’annulation
cancelled L’état annulé
failed L’état d’échec
completed L’état terminé.
expired L’état expiré

createRunRequest

Name Type Description Required Default
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions de l’exécution. Cela est utile pour modifier le comportement lors de chaque exécution sans remplacer d’autres instructions. No
additional_messages array Ajoute des messages supplémentaires au thread avant de créer l’exécution. No
assistant_id string ID de l’assistant à utiliser pour cette exécution. Yes
instructions string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. No
max_completion_tokens integer Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string L’ID du modèle à utiliser pour lancer cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tools array Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
No
tool_outputs array Liste des outils pour lesquels les sorties sont envoyées. Yes

runToolCallObject

Objets d’appel d’outil

Name Type Description Required Default
function object Définition de fonction. Yes
└─ arguments string Les arguments que le modèle attend à ce que vous passiez à la fonction. No
└─ Nom string Nom de la fonction. No
id string ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les résultats de l’outil en utilisant les résultats de l’outil envoyer pour exécuter un point de terminaison. Yes
type string Type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours function. Yes

Énumération de type : RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string ID de l’assistant à utiliser pour cette exécution. Yes
instructions string Remplacez le message système par défaut de l’assistant. Cela est utile pour modifier le comportement lors de chaque exécution. No
max_completion_tokens integer Le nombre maximal de jetons de saisie semi-automatique qui peuvent être utilisés au cours de l’exécution. L’exécution s’efforce au maximum d’utiliser uniquement le nombre de jetons d’achèvement spécifié, à travers plusieurs tours d’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt qui peuvent être utilisés au cours de l’exécution. L’exécution s'efforce au maximum d'utiliser uniquement le nombre de jetons de requête spécifié, au cours de plusieurs tours d'exécution. Si l’exécution dépasse le nombre de jetons de prompt spécifié, l’exécution se termine avec l’état incomplete. Pour plus d'informations, consultez incomplete_details.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
model string ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format de sortie du modèle. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni. Apprenez-en davantage dans le guide des sorties structurées.

La définition de ce paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur et s’arrête lorsque l’exécution entre dans un état terminal avec un message data: [DONE].
No
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto (valeur par défaut) signifie que le modèle peut choisir entre la génération d’un message et l’appel d’un outil.
La spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tool_resources object Un ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array L’ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum d’un magasin de vecteurs attaché à l’Assistant.
No
tools array Remplacez les outils que l’assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement lors de chaque exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier this ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initial de l’exécution. No

threadObject

Représente un thread qui contient des messages.

Name Type Description Required Default
created_at integer L'horodatage Unix (en secondes) de la création du thread. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Yes
object string Le type d’objet, qui est toujours thread. Yes
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
Yes
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No

Énumération d’objet : ThreadObjectType

Value Description
thread Le type d’objet de thread, qui est toujours thread

createThreadRequest

Name Type Description Required Default
messages array Liste des messages pour démarrer le thread. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichier mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No
└ vector_stores array Un Assistant pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
tool_resources object Un ensemble de ressources mises à la disposition des outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichiers, tandis que l’outil file_search nécessite une liste d’ID de magasins de vecteurs.
No
└─ interpréteur_de_code object No
file_ids array Une liste des ID de fichiers mis à la disposition de l’outil code_interpreter. Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└recherche_fichier object No
└ vector_store_ids array Le magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum d’un magasin de vecteurs attaché au thread.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Énumération d’objet : DeleteThreadResponseObjectState

Value Description
thread.deleted État de l’objet de réponse du thread de suppression, à savoir thread.deleted.

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Représente un message au sein d’un thread.

Name Type Description Required Default
assistant_id string Le cas échéant, ID de l’assistant qui a créé ce message. Yes
attachments array Une liste des fichiers attachés au message et les outils auxquels ils ont été ajoutés. Yes
completed_at integer Le timestamp Unix (en secondes) lorsque le message s’est terminé. Yes
content array Contenu du message dans le tableau de texte et/ou d’images. Yes
created_at integer Horodatage Unix (en secondes) de création du message. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
incomplete_at integer Le timestamp Unix (en secondes) lorsque le message a été marqué comme incomplet. Yes
incomplete_details object Sur un message incomplet, détails sur la raison pour laquelle le message est incomplet. Yes
└─ raison string La raison pour laquelle le message est incomplet. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Yes
object string Le type d’objet, qui est toujours thread.message. Yes
role string Entité ayant produit le message. Un de user ou assistant. Yes
run_id string Le cas échéant, ID de l’exécution associée à la création de ce message. Yes
status string L’état du message, qui peut être in_progress, incomplete ou completed. Yes
thread_id string ID des threads auquel ce message appartient. Yes

Énumération d’objet : MessageObjectType

Value Description
thread.message Le type d’objet de message, qui est thread.message

Énumération d’état : MessageObjectStatus

Value Description
in_progress
incomplete
completed

Énumération de rôle : MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.

Name Type Description Required Default
delta object Le delta contenant les champs qui ont été modifiés dans le message. Yes
└─ Contenu array Contenu du message dans le tableau de texte et/ou d’images. No
└─ Rôle string Entité ayant produit le message. Un de user ou assistant. No
id string Identificateur du message qui peut être référencé dans les points de terminaison d’API. Yes
object string Le type d’objet, qui est toujours thread.message.delta. Yes

Énumération d’objet : MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Une liste des fichiers attachés au message et des outils auxquels ils doivent être ajoutés. No
content string Contenu du message. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
role string Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user : indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.
- assistant : indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Yes

Énumération de rôle : CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Énumération d’objet : DeleteMessageResponseObject

Value Description
thread.message.deleted État de l’objet de réponse du message de suppression

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Name Type Description Required Default
image_file object Yes
└ file_id string L’ID de fichier de l’image dans le contenu du message. No
type string A toujours la valeur image_file. Yes

Énumération de type : MessageContentImageFileObjectType

Value Description
image_file Le type de fichier image de contenu du message

messageContentTextObject

Le contenu texte qui fait partie d’un message.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ valeur string Les données qui composent le texte. No
type string A toujours la valeur text. Yes

Énumération de type : messageContentTextObjectType

Value Description
text Le type d’objet de texte de contenu du message

messageContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil de « retrieval » pour rechercher des fichiers.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└ file_id string L’ID du fichier spécifique à partir duquel provient la citation. No
start_index integer Yes
text string Le texte dans le contenu du message qui doit être remplacé. Yes
type string A toujours la valeur file_citation. Yes

Énumération de type : FileCitationObjectType

Value Description
file_citation Le type d’objet de citation de fichier

messageContentTextAnnotationsFilePathObject

Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└ file_id string L’ID du fichier généré. No
start_index integer Yes
text string Le texte dans le contenu du message qui doit être remplacé. Yes
type string A toujours la valeur file_path. Yes

Énumération de type : FilePathObjectType

Value Description
file_path Le type d’objet de chemin de fichier

messageDeltaContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Name Type Description Required Default
image_file object No
└ file_id string L’ID de fichier de l’image dans le contenu du message. No
index integer L’index de la partie contenu dans le message. Yes
type string A toujours la valeur image_file. Yes

Énumération de type : MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Le contenu texte qui fait partie d’un message.

Name Type Description Required Default
index integer L’index de la partie contenu dans le message. Yes
text object No
└─ annotations array No
└─ valeur string Les données qui composent le texte. No
type string A toujours la valeur text. Yes

Énumération de type : MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.

Name Type Description Required Default
end_index integer No
file_citation object No
└ file_id string L’ID du fichier spécifique à partir duquel provient la citation. No
└─ citation string La citation spécifique dans le fichier. No
index integer L’index de l’annotation dans la partie contenu du texte. Yes
start_index integer No
text string Le texte dans le contenu du message qui doit être remplacé. No
type string A toujours la valeur file_citation. Yes

Énumération de type : MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Une URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Name Type Description Required Default
end_index integer No
file_path object No
└ file_id string L’ID du fichier généré. No
index integer L’index de l’annotation dans la partie contenu du texte. Yes
start_index integer No
text string Le texte dans le contenu du message qui doit être remplacé. No
type string A toujours la valeur file_path. Yes

Énumération de type : MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Représente une étape dans une exécution.

Name Type Description Required Default
assistant_id string ID de l’assistant associé à l’étape d’exécution. Yes
cancelled_at integer Horodatage Unix (en secondes) de l’annulation de l’étape d’exécution. Yes
completed_at integer L’horodatage Unix (en secondes) de la réalisation de l’étape d’exécution. Yes
created_at integer Horodatage Unix (en secondes) pour la création de l’étape d’exécution. Yes
expired_at integer Horodatage Unix (en secondes) de l’expiration de l’étape d’exécution. Une étape est considérée comme expirée si l’exécution parente a expiré. Yes
failed_at integer Horodatage Unix (en secondes) de l’échec de l’étape d’exécution. Yes
id string Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. Yes
last_error object Dernière erreur associée à cette étape d’exécution. Est null en l’absence d’erreurs. Yes
└─ code string Un de server_error ou rate_limit_exceeded. No
└─ message string Une description de l’erreur à l’intention des utilisateurs. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Yes
object string Le type d’objet, qui est toujours assistant.run.step. Yes
run_id string ID de l’exécution dont fait partie cette étape d’exécution. Yes
status string L’état de l’exécution, qui peut être in_progress, cancelled, failed, completed ou expired. Yes
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Détails de l’étape d’exécution. Yes
thread_id string ID des threads qui ont été exécutés. Yes
type string Le type d’étape d’exécution, qui peut être message_creation ou tool_calls. Yes

Énumération d’objet : RunStepObjectType

Value Description
assistant.run.step Type d’objet, qui est toujours assistant.run.step

Énumération de type : RunStepObjectType

Value Description
message_creation L’étape d’exécution message_creation
tool_calls L’étape d’exécution tool_calls

Énumération d’état : RunStepObjectStatus

Value Description
in_progress L’état d’exécution in_progress
cancelled L’état d’exécution cancelled
failed L’état d’exécution cancelled
completed L’état d’exécution cancelled
expired L’état d’exécution cancelled

runStepDeltaObject

Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.

Name Type Description Required Default
delta object Le delta contenant les champs qui ont été modifiés dans l’étape d’exécution. Yes
└─ détails_étape runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Détails de l’étape d’exécution. No
id string Identificateur de l’étape d’exécution qui peut être référencé dans les points de terminaison d’API. Yes
object string Le type d’objet, qui est toujours thread.run.step.delta. Yes

Énumération d’objet : RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Name Type Description Required Default
message_creation object Yes
└ message_id string L’ID du message créé à cette étape d’exécution. No
type string A toujours la valeur message_creation. Yes

Énumération de type : RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Name Type Description Required Default
message_creation object No
└ message_id string L’ID du message créé à cette étape d’exécution. No
type string A toujours la valeur message_creation. Yes

Énumération de type : RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Détails de l’appel d’outil.

Name Type Description Required Default
tool_calls array Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter, retrieval ou function.
Yes
type string A toujours la valeur tool_calls. Yes

Énumération de type : RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Détails de l’appel d’outil.

Name Type Description Required Default
tool_calls array Un tableau d’appels d’outils dans lequel l’étape d’exécution était impliquée. Ils peuvent être associés à l’un des trois types d’outils : code_interpreter, file_search ou function.
No
type string A toujours la valeur tool_calls. Yes

Énumération de type : RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.

Name Type Description Required Default
code_interpreter object La définition de l’appel de l’outil Interpréteur de code. Yes
└─ Entrée string L’entrée de l’appel de l’outil Interpréteur de code. No
└─ sorties array Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. No
id string ID de l’appel de l’outil. Yes
type string Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. Yes

Énumération de type : RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Détails de l’appel de l’outil Interpréteur de code dans lequel l’étape d’exécution était impliquée.

Name Type Description Required Default
code_interpreter object La définition de l’appel de l’outil Interpréteur de code. No
└─ Entrée string L’entrée de l’appel de l’outil Interpréteur de code. No
└─ sorties array Les sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. No
id string ID de l’appel de l’outil. No
index integer L’index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Le type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. Yes

Énumération de type : RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Name Type Description Required Default
logs string La sortie de texte de l’appel de l’outil Interpréteur de code. Yes
type string A toujours la valeur logs. Yes

Énumération de type : RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Name Type Description Required Default
index integer L’index de la sortie dans le tableau de sorties. Yes
logs string La sortie de texte de l’appel de l’outil Interpréteur de code. No
type string A toujours la valeur logs. Yes

Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└ file_id string L’ID de fichier de l’image. No
type string A toujours la valeur image. Yes

Énumération de type : RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└ file_id string L’ID de fichier de l’image. No
index integer L’index de la sortie dans le tableau de sorties. Yes
type string A toujours la valeur image. Yes

Énumération de type : RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Pour l’instant, il s’agit toujours d’un objet vide. Yes
─ résultats array Résultats de la recherche de fichiers. No
id string L’ID de l’objet d’appel d’outil. Yes
type string Le type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil. Yes

Énumération de type : RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Instance de résultat de la recherche de fichiers.

Name Type Description Required Default
content array Contenu du résultat trouvé. Le contenu est inclus uniquement s’il est demandé via le paramètre de requête Include. No
file_id string ID du fichier dans lequel le résultat a été trouvé. Yes
file_name string Nom du fichier dans lequel le résultat a été trouvé. Yes
score number Score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Pour l’instant, il s’agit toujours d’un objet vide. Yes
id string L’ID de l’objet d’appel d’outil. No
index integer L’index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Le type d’appel d’outil. Cela va toujours être retrieval pour ce type d’appel d’outil. Yes

Énumération de type : RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object La définition de la fonction appelée. Yes
└─ arguments string Arguments passés à la fonction. No
└─ Nom string Nom de la fonction. No
└─ output string La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. No
id string L’ID de l’objet d’appel d’outil. Yes
type string Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. Yes

Énumération de type : RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object La définition de la fonction appelée. No
└─ arguments string Arguments passés à la fonction. No
└─ Nom string Nom de la fonction. No
└─ output string La sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. No
id string L’ID de l’objet d’appel d’outil. No
index integer L’index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Le type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. Yes

Énumération de type : RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

La stratégie d’expiration d’un magasin de vecteurs.

Name Type Description Required Default
anchor string Le timestamp d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at. Yes
days integer Le nombre de jours après l’heure d’ancre correspondant à l’expiration du magasin de vecteurs. Yes

Énumération d’ancre : VectorStoreExpirationAfterAnchor

Value Description
last_active_at Le timestamp d’ancre après lequel la stratégie d’expiration s’applique.

vectorStoreObject

Un magasin de vecteurs est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search.

Name Type Description Required Default
created_at integer Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été créé. Yes
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. No
expires_at integer Le timestamp Unix (en secondes) lorsque le magasin de vecteurs expirera. No
file_counts object Yes
└' annulé integer Le nombre de fichiers annulés. No
└' terminé integer Le nombre de fichiers qui ont été traités avec succès. No
Échec integer Le nombre de fichiers qui n’ont pas pu être traités. No
└ en_cours integer Le nombre de fichiers en cours de traitement. No
└─ total integer Le nombre total de fichiers. No
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
last_active_at integer Le timestamp Unix (en secondes) lorsque le magasin de vecteurs a été actif pour la dernière fois. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
Yes
name string Le nom du magasin de vecteurs. Yes
object enum Le type d’objet, qui est toujours vector_store.
Valeurs possibles : vector_store
Yes
status string L’état du magasin de vecteurs, qui peut être expired, in_progress ou completed. L’état completed indique que le magasin de vecteurs est prêt à être utilisé. Yes
usage_bytes integer Le nombre total d’octets utilisés par les fichiers dans le magasin de vecteurs. Yes

Énumération d’état : VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. No
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. No
file_ids array Une liste des ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
name string Le nom du magasin de vecteurs. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter La stratégie d’expiration d’un magasin de vecteurs. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l'objet dans un format structuré. Les clés peuvent contenir au maximum 64 caractères et les valeurs peuvent contenir au maximum 512 caractères.
No
name string Le nom du magasin de vecteurs. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Énumération d’objet : DeleteVectorStoreResponseObject

Value Description
vector_store.deleted État de l’objet de réponse de suppression du magasin de vecteurs

vectorStoreFileObject

Une liste de fichiers attachés à un magasin de vecteurs.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. Uniquement applicable si le file_ids n’est pas vide. No
created_at integer Le timestamp Unix (en secondes) lorsque le fichier de magasin de vecteurs a été créé. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
last_error object La dernière erreur associée à ce fichier de magasin de vecteurs. Est null en l’absence d’erreurs. Yes
└─ code string L’un des suivants : server_error, invalid_file ou unsupported_file. No
└─ message string Une description de l’erreur à l’intention des utilisateurs. No
object string Le type d’objet, qui est toujours vector_store.file. Yes
status string L’état du fichier de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé. Yes
usage_bytes integer L’utilisation totale du magasin de vecteurs en octets. Notez qu’elle peut être différente de la taille du fichier d’origine. Yes
vector_store_id string L’ID du magasin de vecteurs auquel le fichier est attaché. Yes

Énumération d’objet : VectorStoreFileObjectType

Value Description
vector_store.file

Énumération d’état : VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Cet élément est retourné quand la stratégie de segmentation est inconnue. Généralement, cela est dû au fait que le fichier a été indexé avant l’introduction du concept chunking_strategy dans l’API.

Name Type Description Required Default
type string A toujours la valeur other. Yes

type Enum : OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string A toujours la valeur static. Yes

type Enum : StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Nombre de jetons qui se chevauchent entre segmentations. La valeur par défaut est 400.

Notez que le chevauchement ne doit pas excéder la moitié de max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Nombre maximal de jetons dans chaque segmentation. La valeur par défaut est 800. La valeur minimale est 100, alors que la valeur maximale est 4096. Yes

autoChunkingStrategyRequestParam

Stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.

Name Type Description Required Default
type enum A toujours la valeur auto.
Valeurs possibles : auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum A toujours la valeur static.
Valeurs possibles : static
Yes

chunkingStrategyRequestParam

Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto.

Ce composant peut être l’un des éléments suivants :

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. No
file_id string Un ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

Énumération d’objet : DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Un lot de fichiers attaché à un magasin de vecteurs.

Name Type Description Required Default
created_at integer Le timestamp Unix (en secondes) lorsque le lot de fichiers de magasin de vecteurs a été créé. Yes
file_counts object Yes
└' annulé integer Le nombre de fichiers annulés. No
└' terminé integer Le nombre de fichiers qui ont été traités. No
Échec integer Le nombre de fichiers qui n’ont pas pu être traités. No
└ en_cours integer Le nombre de fichiers en cours de traitement. No
└─ total integer Le nombre total de fichiers. No
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
object string Le type d’objet, qui est toujours vector_store.file_batch. Yes
status string L’état du lot de fichiers de magasin de vecteurs, qui peut être in_progress, completed, cancelled ou failed. Yes
vector_store_id string L’ID du magasin de vecteurs auquel le fichier est attaché. Yes

Énumération d’objet : VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Énumération d’état : VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter un ou plusieurs fichiers. Si elle n’est pas définie, elle utilise la stratégie auto. No
file_ids array Une liste d’ID de fichiers que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search qui peuvent accéder aux fichiers. Yes

assistantStreamEvent

Représente un événement émis lors de la diffusion en continu d'une exécution.

Chaque événement d’un flux d’événements envoyés par un serveur a un event et une propriété data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Nous émettons des événements chaque fois qu’un nouvel objet est créé, qu’il passe à un nouvel état ou qu’il fait l’objet d’un flux partiel (deltas). Par exemple, nous émettons thread.run.created lorsqu’une nouvelle exécution est créée, thread.run.completed lorsqu’une exécution est terminée, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une exécution, nous émettons un thread.message.created event, un événement thread.message.in_progress, de nombreux événements thread.message.delta et enfin un événement thread.message.completed.

Nous pouvons ajouter des événements supplémentaires au fil du temps. Nous vous recommandons donc de gérer correctement les événements inconnus dans votre code.

Ce composant peut être l’un des éléments suivants :

threadStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.created

Se produit quand une conversation est créée.

Name Type Description Required Default
data threadObject Représente un thread qui contient des messages. Yes
event string Yes

Données : threadObject

Énumération d’événement : ThreadStreamEventEnum

Value Description
thread.created L’événement créé par le thread

runStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.run.created

Se produit quand une exécution est créée.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Se produit lorsqu'une exécution passe à l'état queued.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Se produit lorsqu’une exécution passe à l’état in_progress.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Se produit lorsqu'une exécution passe à l'état requires_action.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Se produit quand une exécution est terminée.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Se produit lorsqu'une exécution échoue.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Se produit lorsqu'une exécution passe à l'état cancelling.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Se produit quand une exécution est annulée.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Se produit lorsqu'une exécution expire.

Name Type Description Required Default
data runObject Représente une exécution sur des threads. Yes
event string Yes

Données : runObject

Énumération d’événement : RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.run.step.created

Se produit lors de la création d'une étape d'exécution.

Name Type Description Required Default
data runStepObject Représente une étape dans une exécution.
Yes
event string Yes

Données : runStepObject

Énumération d’événement : RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Se produit lorsqu’une étape d’exécution passe à un état in_progress.

Name Type Description Required Default
data runStepObject Représente une étape dans une exécution.
Yes
event string Yes

Données : runStepObject

Énumération d’événement : RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Se produit lorsque des parties d'une étape d'exécution sont diffusées en continu.

Name Type Description Required Default
data runStepDeltaObject Représente le delta d’une étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.
Yes
event string Yes

Données : runStepDeltaObject

Énumération d’événement : RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Se produit lors de la fin d'une étape d'exécution.

Name Type Description Required Default
data runStepObject Représente une étape dans une exécution.
Yes
event string Yes

Données : runStepObject

Énumération d’événement : RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Se produit lors de l’échec d'une étape d'exécution.

Name Type Description Required Default
data runStepObject Représente une étape dans une exécution.
Yes
event string Yes

Données : runStepObject

Énumération d’événement : RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Se produit lors de la fin d'une étape d'annulation.

Name Type Description Required Default
data runStepObject Représente une étape dans une exécution.
Yes
event string Yes

Données : runStepObject

Énumération d’événement : RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Se produit lors de l’expiration d'une étape d'exécution.

Name Type Description Required Default
data runStepObject Représente une étape dans une exécution.
Yes
event string Yes

Données : runStepObject

Énumération d’événement : RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.message.created

Se produit lorsqu'un message est créé.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Données : messageObject

Énumération d’événement : MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Se produit lorsqu’un message passe à un état in_progress.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Données : messageObject

Énumération d’événement : MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Se produit lorsque des parties d’un message sont diffusées en continu.

Name Type Description Required Default
data messageDeltaObject Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.
Yes
event string Yes

Données : messageDeltaObject

Énumération d’événement : MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Se produit lorsqu'un message est terminé.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Données : messageObject

Énumération d’événement : MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Se produit lorsqu'un message se termine avant d'être achevé.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Données : messageObject

Énumération d’événement : MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Ce composant peut être l’un des éléments suivants :

Click

Action de clic.

Name Type Description Required Default
button enum Indique le bouton de la souris enfoncé pendant le clic. left, right, wheel, back ou forward.

Valeurs possibles : left, , rightwheel, back,forward
Yes
type enum Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours définie sur click.

Valeurs possibles : click
Yes
x integer Coordonnée x où le clic s’est produit.
Yes
y integer Coordonnée y où le clic s’est produit.
Yes

CodeInterpreterFileOutput

Sortie d’un appel d’outil d’interpréteur de code qui est un fichier.

Name Type Description Required Default
files array Yes
type enum Type de sortie du fichier d’interpréteur de code. A toujours la valeur files.

Valeurs possibles : files
Yes

CodeInterpreterTextOutput

Sortie d’un appel d’outil d’interpréteur de code sous forme de texte.

Name Type Description Required Default
logs string Les journaux d'activité de l’appel de l’outil Interpréteur de code.
Yes
type enum Type de sortie du texte de l’interpréteur de code. A toujours la valeur logs.

Valeurs possibles : logs
Yes

CodeInterpreterTool

Outil qui exécute du code.

Name Type Description Required Default
file_ids array Identifiants des fichiers pour exécuter le code.
Yes
type enum Type de l’outil d’interpréteur de code. A toujours la valeur code_interpreter.

Valeurs possibles : code_interpreter
Yes

CodeInterpreterToolCall

Un appel d’outil pour exécuter du code.

Name Type Description Required Default
code string Code à exécuter.
Yes
id string ID unique de l’appel de l’outil interpréteur de code.
Yes
results array Résultats de l’appel de l’outil interpréteur de code.
Yes
status enum Le statut de l’appel de l’outil Interpréteur de code.

Valeurs possibles : in_progress, , interpretingcompleted
Yes
type enum Type de l’appel de l’outil interpréteur de code. A toujours la valeur code_interpreter_call.

Valeurs possibles : code_interpreter_call
Yes

CodeInterpreterToolOutput

Ce composant peut être l’un des éléments suivants :

ComparisonFilter

Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.

Name Type Description Required Default
key string La clé à comparer avec la valeur. Yes
type enum Spécifie l’opérateur de comparaison : eq, , negt, gtelt, . lte
- eq:Égale
- ne: non égal
- gt : plus grand que
- gte: supérieur ou égal à
- lt:moins de
- lte: inférieur ou égal à

Valeurs possibles : eq, , negt, gte, ltlte
Yes
value chaîne ou nombre ou booléen Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. Yes

CompoundFilter

Combinez plusieurs filtres à l’aide and ou or.

Name Type Description Required Default
filters array Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. Yes
type enum Type d’opération : and ou or.
Valeurs possibles : and, or
Yes

ComputerAction

Ce composant peut être l’un des éléments suivants :

ComputerScreenshotImage

Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.

Name Type Description Required Default
file_id string Identificateur d’un fichier chargé qui contient la capture d’écran. No
image_url string URL de l’image de capture d’écran. No
type enum Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours définie sur computer_screenshot.

Valeurs possibles : computer_screenshot
Yes

ComputerTool

Outil qui contrôle un ordinateur virtuel.

Name Type Description Required Default
display_height number Hauteur de l’affichage de l’ordinateur.
Yes
display_width number Largeur de l’affichage de l’ordinateur.
Yes
environment enum Type d’environnement d’ordinateur à contrôler.

Valeurs possibles : mac, , windowsubuntu,browser
Yes
type enum Type de l’outil d’utilisation de l’ordinateur. A toujours la valeur computer_use_preview.

Valeurs possibles : computer-use-preview
Yes

ComputerToolCall

Un appel d’outil à un outil d’utilisation d’ordinateur.

Name Type Description Required Default
action ComputerAction Yes
call_id string Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie.
Yes
id string ID unique de l’appel informatique. Yes
pending_safety_checks array Les vérifications de sécurité en attente pour l'appel informatique.
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type de l’appel d’ordinateur. A toujours la valeur computer_call.
Valeurs possibles : computer_call
Yes

ComputerToolCallOutput

Sortie d’un appel d’outil informatique.

Name Type Description Required Default
acknowledged_safety_checks array Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur.
No
call_id string L'identifiant de l’appel de l’outil informatique qui a produit la sortie.
Yes
id string Identifiant de la sortie de l'outil informatique utilisé.
No
output ComputerScreenshotImage Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
Yes
status enum État de l’entrée de message. Valeurs possibles : in_progress, completed ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.

Valeurs possibles : computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur.
No
call_id string L'identifiant de l’appel de l’outil informatique qui a produit la sortie.
Yes
id string ID unique de la sortie de l’outil de gestion d'appels informatiques.
Yes
output ComputerScreenshotImage Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
Yes
status enum État de l’entrée de message. Valeurs possibles : in_progress, completed ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de sortie de l’appel de l’outil informatique. A toujours la valeur computer_call_output.

Valeurs possibles : computer_call_output
Yes

ComputerToolCallSafetyCheck

Une vérification de sécurité en attente pour l'appel informatique.

Name Type Description Required Default
code string Type du contrôle de sécurité en attente. Yes
id string ID de la vérification de sécurité en attente. Yes
message string Détails sur le contrôle de sécurité en attente. Yes

Content

Contenu d’entrée et de sortie multimodaux.

Ce composant peut être l’un des éléments suivants :

Coordinate

Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.

Name Type Description Required Default
x integer Coordonnée x.
Yes
y integer La coordonnée y.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Modèle utilisé pour générer les réponses. No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

createResponse

Name Type Description Required Default
include array {"$ref » : « #/components/schemas/includable/description"} No
input chaîne ou tableau Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Yes
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.
No True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement. No
store boolean Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API.
No True
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. No False
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés
No
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque le
réponse à l’ajustement de la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No

DoubleClick

L'action de double clic

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action à double-clic, cette propriété est toujours définie sur double_click.

Valeurs possibles : double_click
Yes
x integer Coordonnée x où le double-clic s’est produit.
Yes
y integer Coordonnée y où le double-clic s’est produit.
Yes

Drag

Action glisser.

Name Type Description Required Default
path array Tableau de coordonnées représentant le parcours de l'action de glisser. Les coordonnées apparaissent sous la forme d’un tableau d’objets, par exemple[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours définie sur drag.

Valeurs possibles : drag
Yes

EasyInputMessage

Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.

Name Type Description Required Default
content string ou InputMessageContentList Texte, image ou entrée audio du modèle utilisé pour générer une réponse.
Peut également contenir des réponses d’assistant précédentes.
Yes
role enum Rôle de la saisie de message. Un de user, assistant, system, ou developer.

Valeurs possibles : user, , assistantsystem,developer
Yes
type enum Type de l’entrée de message. A toujours la valeur message.

Valeurs possibles : message
No

FileCitation

Citation d'un fichier.

Name Type Description Required Default
file_id string ID du fichier.
Yes
index integer Index du fichier dans la liste des fichiers.
Yes
type enum Type de la citation de fichier. A toujours la valeur file_citation.

Valeurs possibles : file_citation
Yes

FilePath

Chemin d’accès à un fichier.

Name Type Description Required Default
file_id string ID du fichier.
Yes
index integer Index du fichier dans la liste des fichiers.
Yes
type enum Type du chemin d’accès au fichier. A toujours la valeur file_path.

Valeurs possibles : file_path
Yes

FileSearchRanker

Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé.

Property Value
Description Outil de classement à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, le classificateur auto sera utilisé.
Type string
Values auto
default_2024_08_21

FileSearchTool

Outil qui recherche le contenu pertinent à partir de fichiers chargés.

Name Type Description Required Default
filters ComparisonFilter ou CompoundFilter Filtre à appliquer en fonction des attributs de fichier. No
max_num_results integer Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus.
No
ranking_options object Options de classement pour la recherche. No
└─ classificateur enum Outil de classement à utiliser pour la recherche de fichiers.
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1.
Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats.
No 0
type enum Type de l’outil de recherche de fichiers. A toujours la valeur file_search.

Valeurs possibles : file_search
Yes
vector_store_ids array ID des magasins vectoriels à rechercher.
Yes

FileSearchToolCall

Résultats d’un appel d’outil de recherche de fichiers.

Name Type Description Required Default
id string ID unique de l’appel de l’outil de recherche de fichiers.
Yes
queries array Requêtes utilisées pour rechercher des fichiers.
Yes
results array Résultats de l’appel de l’outil de recherche de fichiers.
No
status enum État de l'accès à l’outil de recherche de fichiers. Un des in_progress, searching, incomplete ou failed,

Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed
Yes
type enum Type de l’appel de l’outil de recherche de fichiers. A toujours la valeur file_search_call.

Valeurs possibles : file_search_call
Yes

FunctionTool

Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.

Name Type Description Required Default
description string Description de la fonction. Utilisé par le modèle pour déterminer s’il faut ou non appeler la fonction.
No
name string Nom de la fonction à appeler.
Yes
parameters object Objet de schéma JSON décrivant les paramètres de la fonction.
Yes
strict boolean Indique s’il faut appliquer une validation stricte des paramètres. truepar défaut .
Yes
type enum Type de l’outil de fonction. A toujours la valeur function.

Valeurs possibles : function
Yes

FunctionToolCall

Un appel d’outil pour exécuter une fonction.

Name Type Description Required Default
arguments string Chaîne JSON des arguments à passer à la fonction.
Yes
call_id string ID unique de l’appel de l’outil fonctionnel généré par le modèle.
Yes
id string Identifiant unique de l'appel de l'outil fonctionnel.
Yes
name string Nom de la fonction à exécuter.
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type d'appel de l'outil fonctionnel. A toujours la valeur function_call.

Valeurs possibles : function_call
Yes

FunctionToolCallOutput

Sortie d’un appel d’outil de fonction.

Name Type Description Required Default
call_id string ID unique de l’appel de l’outil fonctionnel généré par le modèle.
Yes
id string Identifiant unique de l'appel de sortie de l'outil fonctionnel. Renseigné lorsque cet élément est retourné via l’API.
No
output string Chaîne JSON du résultat d'un appel d'outil fonction.
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.

Valeurs possibles : function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string ID unique de l’appel de l’outil fonctionnel généré par le modèle.
Yes
id string Identifiant unique de l'appel de sortie de l'outil fonctionnel.
Yes
output string Chaîne JSON du résultat d'un appel d'outil fonction.
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type d'appel de sortie de l'outil de fonctionnel. A toujours la valeur function_call_output.

Valeurs possibles : function_call_output
Yes

includable

Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :

  • file_search_call.results : incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
  • message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
  • computer_call_output.output.image_url : incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
Property Value
Description Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
- file_search_call.results : incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
- computer_call_output.output.image_url : incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Entrée audio au modèle.

Name Type Description Required Default
data string Données audio encodées en base64.
Yes
format enum Format des données audio. Actuellement, les formats pris en charge sont mp3 et wav.

Valeurs possibles : mp3, wav
Yes
type enum Type de l’élément d’entrée. A toujours la valeur input_audio.

Valeurs possibles : input_audio
Yes

InputContent

Ce composant peut être l’un des éléments suivants :

InputFile

Entrée de fichier dans le modèle.

Name Type Description Required Default
file_data string Contenu du fichier à envoyer au modèle.
No
file_id string ID du fichier à envoyer au modèle.
No
filename string Nom du fichier à envoyer au modèle.
No
type enum Type de l’élément d’entrée. A toujours la valeur input_file.

Valeurs possibles : input_file
Yes

InputImage

Entrée d’image dans le modèle.

Name Type Description Required Default
detail enum Niveau de détail de l’image à envoyer au modèle. Valeurs possibles : high, low ou auto. La valeur par défaut est auto.

Valeurs possibles : high, , lowauto
Yes
file_id string ID du fichier à envoyer au modèle.
No
image_url string URL de l’image à envoyer au modèle. Une URL complète ou une image encodée en base64 dans une URL de données.
No
type enum Type de l’élément d’entrée. A toujours la valeur input_image.

Valeurs possibles : input_image
Yes

InputItem

Ce composant peut être l’un des éléments suivants :

InputMessage

Un message d'entrée pour le modèle avec un rôle indiquant une hiérarchie de suivi des instructions. Les instructions fournies avec le rôle developer ou system priment sur les instructions fournies avec le rôle user.

Name Type Description Required Default
content InputMessageContentList Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent
types.
Yes
role enum Rôle de la saisie de message. Valeurs possibles : user, system ou developer.

Valeurs possibles : user, , systemdeveloper
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’entrée de message. Toujours défini sur message.

Valeurs possibles : message
No

InputMessageContentList

Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant différents types de contenu.

Aucune propriété définie pour ce composant.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent
types.
Yes
id string L’ID unique de l’entrée du message.
Yes
role enum Rôle de la saisie de message. Valeurs possibles : user, system ou developer.

Valeurs possibles : user, , systemdeveloper
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’entrée de message. Toujours défini sur message.

Valeurs possibles : message
No

InputText

Entrée de texte dans le modèle.

Name Type Description Required Default
text string Entrée de texte dans le modèle.
Yes
type enum Type de l’élément d’entrée. A toujours la valeur input_text.

Valeurs possibles : input_text
Yes

Item

Élément de contenu utilisé pour générer une réponse.

Ce composant peut être l’un des éléments suivants :

ItemReference

Identificateur interne d’un élément à référencer.

Name Type Description Required Default
id string ID de l’élément à référencer.
Yes
type enum Type d’élément à référencer. A toujours la valeur item_reference.

Valeurs possibles : item_reference
Yes

ItemResource

Élément de contenu utilisé pour générer une réponse.

Ce composant peut être l’un des éléments suivants :

KeyPress

Une collection de séquences de touches que le modèle souhaite effectuer.

Name Type Description Required Default
keys array La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé.
Yes
type enum Spécifie le type d’événement. Pour une action de pression de touche, cette propriété est toujours définie à keypress.

Valeurs possibles : keypress
Yes

Metadata

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.

Aucune propriété définie pour ce composant.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Modèle utilisé pour générer les réponses. No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

Move

Action de déplacement de la souris.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours définie sur move.

Valeurs possibles : move
Yes
x integer Coordonnée x vers laquelle se déplacer.
Yes
y integer La coordonnée y vers laquelle se déplacer.
Yes

OutputAudio

Sortie audio du modèle.

Name Type Description Required Default
data string Données audio encodées en base64 à partir du modèle.
Yes
transcript string Transcription des données audio du modèle.
Yes
type enum Type de l’audio de sortie. A toujours la valeur output_audio.

Valeurs possibles : output_audio
Yes

OutputContent

Ce composant peut être l’un des éléments suivants :

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Chaîne JSON des arguments à passer à la fonction.
Yes
call_id string Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie.
Yes
content array Contenu du texte de raisonnement.
Yes
id string Identificateur unique du contenu du raisonnement.
Yes
name string Nom de la fonction à exécuter.
Yes
pending_safety_checks array Les vérifications de sécurité en attente pour l'appel informatique.
Yes
queries array Requêtes utilisées pour rechercher des fichiers.
Yes
results array Résultats de l’appel de l’outil de recherche de fichiers.
No
role enum Rôle du message de sortie. A toujours la valeur assistant.

Valeurs possibles : assistant
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type de l’objet. A toujours la valeur reasoning.

Valeurs possibles : reasoning
Yes

OutputMessage

Message de sortie du modèle.

Name Type Description Required Default
content array Contenu du message de sortie.
Yes
id string ID unique du message de sortie.
Yes
role enum Rôle du message de sortie. A toujours la valeur assistant.

Valeurs possibles : assistant
Yes
status enum État de l’entrée de message. Valeurs possibles : in_progress, completed ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type du message de sortie. A toujours la valeur message.

Valeurs possibles : message
Yes

OutputText

Sortie de texte du modèle.

Name Type Description Required Default
annotations array Annotations de la sortie de texte.
Yes
text string Le texte généré par le modèle.
Yes
type enum Type du texte de sortie. A toujours la valeur output_text.

Valeurs possibles : output_text
Yes

RealtimeSessionCreateRequest

Configuration de l’objet session en temps réel.

Name Type Description Required Default
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être réglée sur null pour désactiver une fois activée. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ Langue string La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ Modèle string Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1.
No
└─ invite string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
instructions string Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.

Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
model string Nom du déploiement utilisé pour cette session.
No
output_audio_format enum Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales.
No 0.8
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction.
No auto
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit.
No True
└─ enthousiasme enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit.
No True
prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms.
No
└durée_du_silence_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur.
No
└─ seuil number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Nouvelle configuration de session en temps réel, avec une clé éphémère. La durée de vie par défaut des clés est d’une minute.

Name Type Description Required Default
client_secret object Clé éphémère retournée par l’API. Yes
└─ expires_at integer Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute.
No
└─ valeur string Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur.
No
input_audio_format string Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être réglée sur null pour désactiver une fois activée. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via Whisper et doit être traitée comme des instructions approximatives plutôt que la représentation comprise par le modèle.
No
└─ Modèle string Le modèle à utiliser pour la transcription whisper-1 est le seul modèle actuellement pris en charge.
No
instructions string Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
output_audio_format string Format de l’audio de sortie. Les options sont pcm16, g711_ulaw ou g711_alaw.
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0,8.
No
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction.
No
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de virage. Peut être mis à null pour désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
No
prefix_padding_ms integer Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms.
No
└durée_du_silence_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur.
No
└─ seuil number Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type string Actuellement, seul le type de détection de tour server_vad est pris en charge.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configuration de l’objet de session de transcription en temps réel.

Name Type Description Required Default
include array Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :
- item.input_audio_transcription.logprobs
No
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être en PCM 16 bits à un taux d’échantillonnage de 24 kHz, en mono, et en ordre d'octets little-endian.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini à null afin de désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de VAD et de la prise de parole (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ Langue string La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ Modèle enum Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.

Valeurs possibles : gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ invite string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’instruction est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être réglé sur null pour désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio de l’utilisateur s’arrête avec uhhm, le modèle attribue une faible probabilité de fin de prise de parole et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription.
No True
└─ enthousiasme enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean S’il y aura ou non une coupure automatique de toute réponse en cours avec la sortie vers la conversation par défaut (c.-à-d. conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription.
No True
prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms.
No
└durée_du_silence_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur.
No
└─ seuil number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Nouvelle configuration de session de transcription en temps réel.

Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. La durée de vie par défaut des clés est d’une minute. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.

Name Type Description Required Default
client_secret object Clé éphémère retournée par l’API. Présente uniquement lorsque la session est créée sur le serveur via l’API REST.
Yes
└─ expires_at integer Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute.
No
└─ valeur string Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur.
No
input_audio_format string Format de l’audio d’entrée. Les options sont pcm16, g711_ulaw ou g711_alaw.
No
input_audio_transcription object Configuration du modèle de transcription.
No
└─ Langue string La langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ Modèle enum Modèle à utiliser pour la transcription. Peut être gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15 ou whisper-1.

Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ invite string Un texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
turn_detection object Configuration pour la détection de virage. Peut être mis à null pour désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
No
prefix_padding_ms integer Quantité d’audio à inclure avant la parole détectée par le VAD (en millisecondes). La valeur par défaut est 300 ms.
No
└durée_du_silence_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est de 500 ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais pourra intervenir pendant les courtes pauses de l'utilisateur.
No
└─ seuil number Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type string Actuellement, seul le type de détection de tour server_vad est pris en charge.
No

Reasoning

Options de configuration pour les modèles de raisonnement.

Name Type Description Required Default
effort ReasoningEffort Limite l’effort de raisonnement pour les modèles de raisonnement.
Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.
Yes medium
summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un de concise ou detailed.

Valeurs possibles : concise, detailed
No

ReasoningItem

Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse.

Name Type Description Required Default
content array Contenu du texte de raisonnement.
Yes
id string Identificateur unique du contenu du raisonnement.
Yes
status enum État de l’élément. Valeurs possibles : in_progress, completed ou incomplete. La valeur est remplie lorsque les éléments sont retournés via l'API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’objet. A toujours la valeur reasoning.

Valeurs possibles : reasoning
Yes

Refusal

Refus du modèle.

Name Type Description Required Default
refusal string Explication du refus du modèle.
Yes
type enum Type de refus. A toujours la valeur refusal.

Valeurs possibles : refusal
Yes

response

Name Type Description Required Default
created_at number Horodatage Unix (en secondes) de la création de cette réponse.
Yes
error ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
Yes
id string Identificateur unique pour cette réponse.
Yes
incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète.
Yes
└─ raison enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses.
Yes
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation.
No
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
model string Modèle utilisé pour générer les réponses. Yes
object enum Type d’objet de cette ressource - toujours défini sur response.

Valeurs possibles : response
Yes
output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
Yes
output_text string Propriété pratique du Kit de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les éléments output_text du tableau output, le cas échéant.
Pris en charge dans les kits SDK Python et JavaScript.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.
Yes True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement.
No
status enum État de la génération de réponse. Un de completed, failed, in_progress, ou incomplete.

Valeurs possibles : completed, , failedin_progress,incomplete
No
temperature number Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Yes 1
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
Yes
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés
Yes
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Yes 1
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No
usage ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

ResponseAudioDeltaEvent

Émis lorsqu’il existe une réponse audio partielle.

Name Type Description Required Default
delta string Segment d’octets audio de réponse encodés en Base64.
Yes
type enum le type de l'événement ; A toujours la valeur response.audio.delta.

Valeurs possibles : response.audio.delta
Yes

ResponseAudioDoneEvent

Émis lorsque la réponse audio est terminée.

Name Type Description Required Default
type enum le type de l'événement ; A toujours la valeur response.audio.done.

Valeurs possibles : response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Émis lorsqu’il existe une transcription partielle de l’audio.

Name Type Description Required Default
delta string Transcription partielle de la réponse audio.
Yes
type enum le type de l'événement ; A toujours la valeur response.audio.transcript.delta.

Valeurs possibles : response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Émis lorsque la transcription audio complète est terminée.

Name Type Description Required Default
type enum le type de l'événement ; A toujours la valeur response.audio.transcript.done.

Valeurs possibles : response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Émis lorsqu’un extrait de code partiel est ajouté par l’interpréteur de code.

Name Type Description Required Default
delta string Extrait de code partiel ajouté par l’interpréteur de code.
Yes
output_index integer Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours.
Yes
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.code.delta.

Valeurs possibles : response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Émis lorsque la sortie de l’extrait de code est finalisée par l’interpréteur de code.

Name Type Description Required Default
code string Sortie finale de l’extrait de code par l’interpréteur de code.
Yes
output_index integer Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours.
Yes
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.code.done.

Valeurs possibles : response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Émis lorsque l’appel de l’interpréteur de code est terminé.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
output_index integer Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours.
Yes
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.completed.

Valeurs possibles : response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Émis lorsqu’un appel d’interpréteur de code est en cours.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
output_index integer Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours.
Yes
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.in_progress.

Valeurs possibles : response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Émis lorsque l’interpréteur de code interprète activement l’extrait de code.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
output_index integer Index de l’élément de sortie pour lequel l’appel à l’interpréteur de code est en cours.
Yes
type enum le type de l'événement ; A toujours la valeur response.code_interpreter_call.interpreting.

Valeurs possibles : response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Émis lorsque la réponse du modèle est terminée.

Name Type Description Required Default
response response Yes
type enum le type de l'événement ; A toujours la valeur response.completed.

Valeurs possibles : response.completed
Yes

ResponseContentPartAddedEvent

Émis lorsqu’un nouveau composant de contenu est ajouté.

Name Type Description Required Default
content_index integer Index de la partie de contenu qui a été ajoutée.
Yes
item_id string ID de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
output_index integer Index de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
part OutputContent Yes
type enum le type de l'événement ; A toujours la valeur response.content_part.added.

Valeurs possibles : response.content_part.added
Yes

ResponseContentPartDoneEvent

Émis lorsqu’un composant de contenu est terminé.

Name Type Description Required Default
content_index integer Index de la partie de contenu terminée.
Yes
item_id string ID de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
output_index integer Index de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
part OutputContent Yes
type enum le type de l'événement ; A toujours la valeur response.content_part.done.

Valeurs possibles : response.content_part.done
Yes

ResponseCreatedEvent

Événement émis lors de la création d’une réponse.

Name Type Description Required Default
response response Yes
type enum le type de l'événement ; A toujours la valeur response.created.

Valeurs possibles : response.created
Yes

ResponseError

Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.

Name Type Description Required Default
code ResponseErrorCode Code d’erreur de la réponse.
Yes
message string Une description de l’erreur à l’intention des utilisateurs.
Yes

ResponseErrorCode

Code d’erreur de la réponse.

Property Value
Description Code d’erreur de la réponse.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Émis lorsqu’une erreur se produit.

Name Type Description Required Default
code string Code d'erreur.
Yes
message string Message d’erreur.
Yes
param string Paramètre d’erreur.
Yes
type enum le type de l'événement ; A toujours la valeur error.

Valeurs possibles : error
Yes

ResponseFailedEvent

Événement émis en cas d’échec d’une réponse.

Name Type Description Required Default
response response Yes
type enum le type de l'événement ; A toujours la valeur response.failed.

Valeurs possibles : response.failed
Yes

ResponseFileSearchCallCompletedEvent

Émis lorsqu’un appel de recherche de fichiers est terminé (résultats trouvés).

Name Type Description Required Default
item_id string ID de l’élément de sortie initié par l’appel de recherche de fichier.
Yes
output_index integer L'index de l'élément de sortie auquel l'appel de recherche de fichier est associé.
Yes
type enum le type de l'événement ; A toujours la valeur response.file_search_call.completed.

Valeurs possibles : response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Émis lorsqu’un appel de recherche de fichiers est lancé.

Name Type Description Required Default
item_id string ID de l’élément de sortie initié par l’appel de recherche de fichier.
Yes
output_index integer L'index de l'élément de sortie auquel l'appel de recherche de fichier est associé.
Yes
type enum le type de l'événement ; A toujours la valeur response.file_search_call.in_progress.

Valeurs possibles : response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Émis lorsqu'une recherche de fichier est en cours.

Name Type Description Required Default
item_id string ID de l’élément de sortie initié par l’appel de recherche de fichier.
Yes
output_index integer Index de l’élément de sortie recherché lors de l’appel de recherche de fichier.
Yes
type enum le type de l'événement ; A toujours la valeur response.file_search_call.searching.

Valeurs possibles : response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.

Name Type Description Required Default
delta string Delta des arguments d’appel de fonction ajoutés.
Yes
item_id string ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté.
Yes
output_index integer Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté.
Yes
type enum le type de l'événement ; A toujours la valeur response.function_call_arguments.delta.

Valeurs possibles : response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Émis lorsque des arguments d’appel de fonction sont finalisés.

Name Type Description Required Default
arguments string Arguments d’appel de fonction. Yes
item_id string ID de l'élément. Yes
output_index integer Index de l’élément de sortie. Yes
type enum
Valeurs possibles : response.function_call_arguments.done
Yes

ResponseInProgressEvent

Émis lorsque la réponse est en cours.

Name Type Description Required Default
response response Yes
type enum le type de l'événement ; A toujours la valeur response.in_progress.

Valeurs possibles : response.in_progress
Yes

ResponseIncompleteEvent

Événement émis lorsqu’une réponse se termine comme incomplète.

Name Type Description Required Default
response response Yes
type enum le type de l'événement ; A toujours la valeur response.incomplete.

Valeurs possibles : response.incomplete
Yes

responseItemList

Liste des éléments de réponse.

Name Type Description Required Default
data array Liste des éléments utilisés pour générer cette réponse. Yes
first_id string ID du premier élément de la liste. Yes
has_more boolean Indique s’il existe d’autres éléments disponibles. Yes
last_id string ID du dernier élément de la liste. Yes
object enum Le type d’objet retourné doit être list.
Valeurs possibles : list
Yes

ResponseModalities

Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :

["text"]

Le modèle gpt-4o-audio-preview peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère des réponses au format texte et audio, vous pouvez utiliser :

["text", "audio"]

Aucune propriété définie pour ce composant.

ResponseModalitiesTextOnly

Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, ce qui est l’action par défaut :

["text"]

Cette API prendra bientôt en charge d’autres modalités de sortie, y compris l’audio et les images.

Aucune propriété définie pour ce composant.

ResponseOutputItemAddedEvent

Émis lorsqu’un nouvel élément de sortie est ajouté.

Name Type Description Required Default
item OutputItem Yes
output_index integer Index de l’élément de sortie qui a été ajouté.
Yes
type enum le type de l'événement ; A toujours la valeur response.output_item.added.

Valeurs possibles : response.output_item.added
Yes

ResponseOutputItemDoneEvent

Émis lorsqu’un élément de sortie est marqué comme terminé.

Name Type Description Required Default
item OutputItem Yes
output_index integer Index de l’élément de sortie marqué comme terminé.
Yes
type enum le type de l'événement ; A toujours la valeur response.output_item.done.

Valeurs possibles : response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela simplifie le remplacement des messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation.
No
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement.
No
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Pour en savoir plus:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés
No
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No

ResponseRefusalDeltaEvent

Émis lorsqu’il existe un texte de refus partiel.

Name Type Description Required Default
content_index integer Index de la partie de contenu à laquelle le texte de refus est ajouté.
Yes
delta string Texte de refus ajouté.
Yes
item_id string ID de l’élément de sortie auquel le texte de refus est ajouté.
Yes
output_index integer Index de l’élément de sortie auquel le texte de refus est ajouté.
Yes
type enum le type de l'événement ; A toujours la valeur response.refusal.delta.

Valeurs possibles : response.refusal.delta
Yes

ResponseRefusalDoneEvent

Émis lorsque le texte de refus est finalisé.

Name Type Description Required Default
content_index integer L'index de la partie de contenu où le texte de refus est finalisé.
Yes
item_id string ID de l'élément de sortie pour lequel le texte de refus est finalisé.
Yes
output_index integer L'index de l’élément de sortie où le texte de refus est finalisé.
Yes
refusal string Texte de refus finalisé.
Yes
type enum le type de l'événement ; A toujours la valeur response.refusal.done.

Valeurs possibles : response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Index de l’annotation qui a été ajoutée.
Yes
arguments string Arguments d’appel de fonction. Yes
code string Code d'erreur.
Yes
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
content_index integer L'index de la partie de contenu où le contenu du texte est finalisé.
Yes
delta string Le delta de texte qui a été ajouté.
Yes
item OutputItem Élément de sortie marqué comme terminé.
Yes
item_id string ID de l’élément de sortie pour lequel le contenu du texte est finalisé.
Yes
message string Message d’erreur.
Yes
output_index integer L'index de l’élément de sortie où le contenu du texte est finalisé.
Yes
param string Paramètre d’erreur.
Yes
part OutputContent Partie de contenu qui est effectuée.
Yes
refusal string Texte de refus finalisé.
Yes
response response Réponse incomplète.
Yes
text string Contenu texte finalisé.
Yes
type enum le type de l'événement ; A toujours la valeur response.output_text.done.

Valeurs possibles : response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Émis lorsqu’une annotation de texte est ajoutée.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Index de l’annotation qui a été ajoutée.
Yes
content_index integer Index de la partie de contenu à laquelle l’annotation de texte a été ajoutée.
Yes
item_id string ID de l’élément de sortie auquel l’annotation de texte a été ajoutée.
Yes
output_index integer Index de l’élément de sortie auquel l’annotation de texte a été ajoutée.
Yes
type enum le type de l'événement ; A toujours la valeur response.output_text.annotation.added.

Valeurs possibles : response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Émis lorsqu’il existe un delta de texte supplémentaire.

Name Type Description Required Default
content_index integer Index de la partie de contenu à laquelle le delta de texte a été ajouté.
Yes
delta string Le delta de texte qui a été ajouté.
Yes
item_id string ID de l’élément de sortie auquel le delta de texte a été ajouté.
Yes
output_index integer Index de l’élément de sortie à laquelle le delta de texte a été ajouté.
Yes
type enum le type de l'événement ; A toujours la valeur response.output_text.delta.

Valeurs possibles : response.output_text.delta
Yes

ResponseTextDoneEvent

Émis lorsque le contenu du texte est finalisé.

Name Type Description Required Default
content_index integer L'index de la partie de contenu où le contenu du texte est finalisé.
Yes
item_id string ID de l’élément de sortie pour lequel le contenu du texte est finalisé.
Yes
output_index integer L'index de l’élément de sortie où le contenu du texte est finalisé.
Yes
text string Contenu texte finalisé.
Yes
type enum le type de l'événement ; A toujours la valeur response.output_text.done.

Valeurs possibles : response.output_text.done
Yes

ResponseUsage

Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.

Name Type Description Required Default
input_tokens integer Nombre de jetons d’entrée. Yes
output_tokens integer Nombre de jetons de sortie. Yes
output_tokens_details object Répartition détaillée des jetons de sortie. Yes
└─ jetons_de_raisonnement integer Nombre de jetons de raisonnement. No
total_tokens integer Nombre total de jetons utilisés. Yes

Screenshot

Action de capture d’écran.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.

Valeurs possibles : screenshot
Yes

Scroll

Action de défilement.

Name Type Description Required Default
scroll_x integer Distance de défilement horizontale.
Yes
scroll_y integer Distance de défilement verticale.
Yes
type enum Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours définie sur scroll.

Valeurs possibles : scroll
Yes
x integer Coordonnée x où le défilement s’est produit.
Yes
y integer Coordonnée y où le défilement s’est produit.
Yes

StopConfiguration

Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.

Ce composant peut être l’un des éléments suivants :

TextResponseFormatConfiguration

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Configurer { "type": "json_object" } active l’ancien mode JSON afin de garantir que le message généré par le modèle est un JSON valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

Ce composant peut être l’un des éléments suivants :

TextResponseFormatJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.

Name Type Description Required Default
description string Une description de à quoi sert le format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format.
No
name string Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64.
No
schema ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON. Yes
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie.
Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true.
No False
type enum Type de format de réponse défini. A toujours la valeur json_schema.
Valeurs possibles : json_schema
Yes

Tool

Ce composant peut être l’un des éléments suivants :

ToolChoiceFunction

Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
name string Nom de la fonction à appeler. Yes
type enum Pour l’appel de fonction, le type est toujours function.
Valeurs possibles : function
Yes

ToolChoiceOptions

Contrôle l’outil (le cas échéant) appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.

Property Value
Description Contrôle l’outil (le cas échéant) appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
Type string
Values none
auto
required

ToolChoiceTypes

Indique que le modèle doit utiliser un outil intégré pour générer une réponse.

Name Type Description Required Default
type enum Type d’outil hébergé que le modèle doit utiliser. Les valeurs autorisées sont les suivantes :
- file_search
- computer_use_preview

Valeurs possibles : file_search, computer_use_preview
Yes

Type

Une action pour saisir du texte.

Name Type Description Required Default
text string Texte à taper.
Yes
type enum Spécifie le type d’événement. Pour une action de type, cette propriété est toujours définie sur type.

Valeurs possibles : type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.
Yes

UrlCitation

Citation d’une ressource web utilisée pour générer une réponse de modèle.

Name Type Description Required Default
end_index integer Index du dernier caractère de la citation d’URL dans le message.
Yes
start_index integer Index du premier caractère de la citation d’URL dans le message.
Yes
title string Titre de la ressource web.
Yes
type enum Type de la citation d’URL. A toujours la valeur url_citation.

Valeurs possibles : url_citation
Yes
url string URL de la ressource web.
Yes

VectorStoreFileAttributes

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.

Aucune propriété définie pour ce composant.

VectorStoreFileContentResponse

Représente le contenu analysé d’un fichier de stockage vectoriel.

Name Type Description Required Default
data array Contenu analysé du fichier. Yes
has_more boolean Indique s’il y a plus de pages de contenu à extraire. Yes
next_page string Jeton de navigation pour la page suivante, si disponible. Yes
object enum Type d’objet, qui est toujours vector_store.file_content.page
Valeurs possibles : vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters ComparisonFilter ou CompoundFilter Filtre à appliquer en fonction des attributs de fichier. No
max_num_results integer Le nombre maximal de résultats à renvoyer. Ce nombre doit être compris entre 1 et 50 inclus. No 10
query chaîne ou tableau Chaîne de requête pour une recherche Yes
ranking_options object Options de classement pour la recherche. No
└─ classificateur enum Valeurs possibles : auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Contenu texte retourné par la recherche. Yes
type enum Type de contenu.
Valeurs possibles : text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes de caractères d'une longueur maximale de 512 caractères, des booléens ou des nombres.
Yes
content array Blocs de contenu du fichier. Yes
file_id string ID du fichier de stockage de vecteurs. Yes
filename string Nom du fichier de stockage de vecteurs. Yes
score number Score de similarité pour le résultat. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array Liste des éléments de résultat de recherche. Yes
has_more boolean Indique s’il y a plus de résultats à extraire. Yes
next_page string Jeton de navigation pour la page suivante, si disponible. Yes
object enum Type d’objet, qui est toujours vector_store.search_results.page
Valeurs possibles : vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Aucune propriété définie pour ce composant.

Wait

Une action d'attente.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie sur wait.

Valeurs possibles : wait
Yes

ReasoningEffort

Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.

Property Value
Description Limite l’effort de raisonnement pour les modèles de raisonnement.
Les valeurs actuellement prises en charge sont low, medium et high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et l’utilisation d’un nombre inférieur de jetons sur le raisonnement dans une réponse.
Type string
Default medium
Values low
medium
high

errorEvent

Se produit lorsqu'une erreur a lieu. Cela peut être dû à une erreur interne du serveur ou à un dépassement de délai.

Name Type Description Required Default
data error Yes
event string Yes

Énumération d’événement : ErrorEventEnum

Value Description
error

doneEvent

Se produit lorsqu'un flux se termine.

Name Type Description Required Default
data string Yes
event string Yes

Énumération d’événement : DoneEventEnum

Value Description
done

Énumération de données : DoneEventDataEnum

Value Description
[DONE]

Étapes suivantes

Découvrez les modèles et le réglage précis avec l’API REST . Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.