Partager via


Informations de référence sur l’API REST Microsoft modèles Foundry dans Azure OpenAI

Note

Ce document fait référence au portail Microsoft Foundry (classique).

🔍 Consultez la documentation Microsoft Foundry (nouvelle) pour en savoir plus sur le nouveau portail.

Cet article fournit des détails sur les points de terminaison API REST d’inférence pour Azure OpenAI.

Spécifications de l’API

La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :

  • Plan de contrôle
  • Plan de données – création
  • Plan de données – inférence

Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.

Important

Il existe maintenant une nouvelle API d’inférence en préversion. En savoir plus dans notre guide de cycle de vie des API.

API (Interface de Programmation d'Applications) Dernière version en préversion Dernière version en disponibilité générale Spécifications Descriptif
Plan de contrôle 2025-07-01-preview 2025-06-01 Fichiers de spécifications L’API de plan de contrôle est utilisée pour les opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI.
Plan de données v1 preview v1 Fichiers de spécifications L’API du plan de données contrôle les opérations d’inférence et de création.

Authentification

Azure OpenAI offre deux méthodes d’authentification. Vous pouvez utiliser des clés API ou Microsoft Entra ID.

  • Authentification par clé API : pour ce type d’authentification, toutes les requêtes d’API doivent inclure la clé API dans l’en-tête HTTP api-key. Le Démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.

  • Authentification Microsoft Entra ID : Vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont incluses dans une requête sous la forme de l’en-tête Authorization. Le jeton fourni doit être précédé de Bearer. Par exemple : Bearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur Authentification avec Microsoft Entra ID.

Gestion des versions d'API REST

Les API de service sont versionnées à l’aide du paramètre de requête api-version. Toutes les versions suivent la structure de date AAAA-MM-JJ. Par exemple:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inférence de plan de données

Le reste de l’article couvre la dernière version en disponibilité générale de la spécification d’inférence de plan de données Azure OpenAI, 2024-10-21.

Si vous recherchez de la documentation sur la dernière version de l’API en préversion, reportez-vous à la dernière API d’inférence de plan de données en préversion

Complétions

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

Paramètres d’URI

Nom Dans Obligatoire Type Descriptif
point de terminaison path Oui ficelle
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui ficelle ID de déploiement du modèle qui a été déployé.
version de l'API requête Oui ficelle Version de l’API

En-tête de requête

Nom Obligatoire Type Descriptif
clé API Vrai ficelle Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
prompt chaîne ou tableau Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document.
Oui
best_of entier Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
echo boolean Renvoyer l’invite en plus de l’achèvement
Non Faux
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias objet Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
Non Aucun
logprobs entier Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.

La valeur maximale de logprobs est 5.
Non Aucun
nombre_maximal_de_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
Non 16
n entier Nombre d’achèvements à générer pour chaque invite.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
pénalité_de_presence nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
Graines entier S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Non
ruisseau boolean Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. Non Faux
suffixe ficelle Suffixe qui vient après l’achèvement d’un texte inséré.

Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
Non Aucun
température nombre Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p nombre Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non

Réponses

Code d’état : 200

Description : OK

Type de contenu Type Description
application/json createCompletionResponse Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés et non diffusés partagent la même forme (contrairement au point de terminaison de conversation).

Code d’état : par défaut

Description : Service non disponible

Type de contenu Type Description
application/json errorResponse

Exemples

Exemple :

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporations

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et des algorithmes Machine Learning.

Paramètres d’URI

Nom Dans Obligatoire Type Descriptif
point de terminaison path Oui ficelle
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui ficelle
version de l'API requête Oui ficelle Version de l’API

En-tête de requête

Nom Obligatoire Type Descriptif
clé API Vrai ficelle Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
entrée chaîne ou tableau Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser le nombre maximal de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide et un tableau doit avoir un nombre de dimensions inférieur ou égal à 2 048. Oui
utilisateur ficelle Un identificateur unique représentant votre utilisateur final, qui peut vous aider à surveiller et à détecter des abus. Non
type_d'entrée ficelle type d’entrée de la recherche d’incorporation à utiliser Non
format d'encodage ficelle Format dans lequel retourner les incorporations. La valeur peut être float ou base64. La valeur par défaut est float. Non
dimensions entier Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieurs. Non

Réponses

Nom Type Descriptif Obligatoire Par défaut
objet ficelle Oui
modèle ficelle Oui
données tableau Oui
usage objet Oui

Propriétés pour l’utilisation

prompt_tokens

Nom Type Descriptif Par défaut
prompt_tokens entier

nombre_total_de_jetons

Nom Type Descriptif Par défaut
nombre_total_de_jetons entier

Code d’état : 200

Description : OK

Type de contenu Type Description
application/json objet

Exemples

Exemple :

Retourne les incorporations pour une invite donnée.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Complétions de conversation

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Crée un achèvement pour le message de conversation

Paramètres d’URI

Nom Dans Obligatoire Type Descriptif
point de terminaison path Oui ficelle
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui ficelle ID de déploiement du modèle qui a été déployé.
version de l'API requête Oui ficelle Version de l’API

En-tête de requête

Nom Obligatoire Type Descriptif
clé API Vrai ficelle Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
température nombre Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p nombre Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
ruisseau boolean Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. Non Faux
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons.
Non
nombre_maximal_de_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
Non
nombre_maximal_de_tokens_de_completion entier Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Non
pénalité_de_presence nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias objet Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
Non Aucun
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non
Cloud vers appareil tableau Liste des messages comprenant la conversation jusqu’ici. Oui
sources_de_données tableau Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
Non
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. Non Faux
top_logprobs entier Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée. logprobs devez être défini sur true si ce paramètre est utilisé. Non
n entier Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés pour tous les choix. Gardez n défini sur 1 pour minimiser les coûts. Non 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non Vrai
format_de_réponse ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
Graines entier Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
outils tableau Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
Non
choix d'outil chatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. Non
function_call chaîne ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas de fonction et génère un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
Non
fonctions tableau Déconseillé en faveur de tools.

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
Non

Réponses

Code d’état : 200

Description : OK

Type de contenu Type Description
application/json createChatCompletionResponse ou createChatCompletionStreamResponse

Code d’état : par défaut

Description : Service non disponible

Type de contenu Type Description
application/json errorResponse

Exemples

Exemple :

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple :

Crée un achèvement basé sur les données Recherche Azure et l’identité managée affectée par le système.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple :

Crée un achèvement basé sur les données vectorielles Recherche Azure, le message précédent de l’Assistant et l’identité managée affectée par l’utilisateur(-trice).

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemple :

Crée un achèvement pour l’index Azure Cosmos DB fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcriptions – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transcrit l’audio dans la langue d’entrée.

Paramètres d’URI

Nom Dans Obligatoire Type Descriptif
point de terminaison path Oui ficelle
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui ficelle ID de déploiement du modèle de synthèse vocale.

Pour plus d’informations sur les modèles pris en charge, consultez [/azure/ai-foundry/openai/concepts/models#audio-models].
version de l'API requête Oui ficelle Version de l’API

En-tête de requête

Nom Obligatoire Type Descriptif
clé API Vrai ficelle Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : multipart/form-data

Nom Type Descriptif Obligatoire Par défaut
fichier ficelle L’objet de fichier audio à transcrire. Oui
prompt ficelle Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. Non
format_de_réponse audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0
Langue ficelle La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. Non

Réponses

Code d’état : 200

Description : OK

Type de contenu Type Description
application/json audioResponse ou audioVerboseResponse
texte/brut ficelle Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt).

Exemples

Exemple :

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemple :

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traductions – Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transcrit et traduit l’audio d’entrée en texte anglais.

Paramètres d’URI

Nom Dans Obligatoire Type Descriptif
point de terminaison path Oui ficelle
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui ficelle ID de déploiement du modèle Whisper qui a été déployé.

Pour plus d’informations sur les modèles pris en charge, consultez [/azure/ai-foundry/openai/concepts/models#audio-models].
version de l'API requête Oui ficelle Version de l’API

En-tête de requête

Nom Obligatoire Type Descriptif
clé API Vrai ficelle Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : multipart/form-data

Nom Type Descriptif Obligatoire Par défaut
fichier ficelle Le fichier audio à traduire. Oui
prompt ficelle Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. Non
format_de_réponse audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0

Réponses

Code d’état : 200

Description : OK

Type de contenu Type Description
application/json audioResponse ou audioVerboseResponse
texte/brut ficelle Texte transcrit au format de sortie (lorsque response_format était text, vtt ou srt).

Exemples

Exemple :

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemple :

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Génération d’images

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Génère un lot d’images à partir d’une légende de texte sur un modèle de déploiement DALL-E donné

Paramètres d’URI

Nom Dans Obligatoire Type Descriptif
point de terminaison path Oui ficelle
url
Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{nom-de-votre-ressource}.openai.azure.com
id-de-déploiement path Oui ficelle ID de déploiement du modèle DALL-E qui a été déployé.
version de l'API requête Oui ficelle Version de l’API

En-tête de requête

Nom Obligatoire Type Descriptif
clé API Vrai ficelle Fournir une clé API Azure OpenAI ici

Corps de la requête

Content-Type : application/json

Nom Type Descriptif Obligatoire Par défaut
prompt ficelle Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. Oui
n entier Nombre d’images à générer. Non 1
taille imageSize Taille des images générées. Non 1024x1024
format_de_réponse imagesResponseFormat Format dans lequel les images générées sont retournées. Non url
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. Non
qualité imageQuality La qualité de l’image qui sera générée. Non standard
style imageStyle Le style des images générées. Non vif

Réponses

Code d’état : 200

Description : Ok

Type de contenu Type Description
application/json generateImagesResponse

Code d’état : par défaut

Description : Désolé, une erreur s’est produite.

Type de contenu Type Description
application/json dalleErrorResponse

Exemples

Exemple :

Crée des images en fonction d’un prompt donné.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Réponses : Code d’état : 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Composants

réponseErreur

Nom Type Descriptif Obligatoire Par défaut
erreur erreur Non

errorBase

Nom Type Descriptif Obligatoire Par défaut
code ficelle Non
message ficelle Non

erreur

Nom Type Descriptif Obligatoire Par défaut
Paramètre ficelle Non
type ficelle Non
erreur interne innerError Erreur interne avec des détails supplémentaires. Non

erreur interne

Erreur interne avec des détails supplémentaires.

Nom Type Descriptif Obligatoire Par défaut
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. Non
résultats_du_filtre_de_contenu contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non

innerErrorCode

Codes d’erreur pour l’objet d’erreur interne.

Description : codes d’erreur pour l’objet d’erreur interne.

Type : string

Par défaut :

Nom de l’énumération : InnerErrorCode

Valeurs d’énumération :

Valeur Descriptif
ResponsibleAIPolicyViolation Le prompt a enfreint une ou plusieurs règles de filtrage de contenu.

dalleErrorResponse

Nom Type Descriptif Obligatoire Par défaut
erreur dalleError Non

dalleError

Nom Type Descriptif Obligatoire Par défaut
Paramètre ficelle Non
type ficelle Non
erreur interne dalleInnerError Erreur interne avec des détails supplémentaires. Non

dalleInnerError

Erreur interne avec des détails supplémentaires.

Nom Type Descriptif Obligatoire Par défaut
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. Non
résultats_du_filtre_de_contenu dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non
revised_prompt ficelle Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. Non

BaseDeRésultatDeFiltreDeContenu

Nom Type Descriptif Obligatoire Par défaut
filtré boolean Oui

Résultat de la sévérité du filtre de contenu

Nom Type Descriptif Obligatoire Par défaut
filtré boolean Oui
gravité ficelle Non

RésultatDuFiltreDeContenuDétecté

Nom Type Descriptif Obligatoire Par défaut
filtré boolean Oui
détecté boolean Non

contentFilterDetectedWithCitationResult

Nom Type Descriptif Obligatoire Par défaut
citation objet Non

Propriétés de la citation

URL

Nom Type Descriptif Par défaut
URL ficelle

license

Nom Type Descriptif Par défaut
license ficelle

contentFilterResultsBase

Informations sur les résultats du filtrage de contenu.

Nom Type Descriptif Obligatoire Par défaut
sexuel résultatDeSévéritéDuFiltreDeContenu Non
violence résultatDeSévéritéDuFiltreDeContenu Non
haine résultatDeSévéritéDuFiltreDeContenu Non
automutilation résultatDeSévéritéDuFiltreDeContenu Non
profanité RésultatDeFiltreDeContenuDétecté Non
erreur errorBase Non

contentFilterPromptResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Type Descriptif Obligatoire Par défaut
sexuel résultatDeSévéritéDuFiltreDeContenu Non
violence résultatDeSévéritéDuFiltreDeContenu Non
haine résultatDeSévéritéDuFiltreDeContenu Non
automutilation résultatDeSévéritéDuFiltreDeContenu Non
profanité RésultatDeFiltreDeContenuDétecté Non
erreur errorBase Non
jailbreak RésultatDeFiltreDeContenuDétecté Non

contentFilterChoiceResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Type Descriptif Obligatoire Par défaut
sexuel résultatDeSévéritéDuFiltreDeContenu Non
violence résultatDeSévéritéDuFiltreDeContenu Non
haine résultatDeSévéritéDuFiltreDeContenu Non
automutilation résultatDeSévéritéDuFiltreDeContenu Non
profanité RésultatDeFiltreDeContenuDétecté Non
erreur errorBase Non
protected_material_text RésultatDeFiltreDeContenuDétecté Non
code_de_matériau_protégé filtreDeContenuDetectéAvecRésultatDeCitation Non

promptFilterResult

Résultats du filtrage de contenu pour un seul prompt dans la requête.

Nom Type Descriptif Obligatoire Par défaut
prompt_index entier Non
résultats_du_filtre_de_contenu contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non

promptFilterResults

Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents.

Aucune propriété définie pour ce composant.

RésultatsDalleFiltreDeContenu

Informations sur les résultats du filtrage de contenu.

Nom Type Descriptif Obligatoire Par défaut
sexuel résultatDeSévéritéDuFiltreDeContenu Non
violence résultatDeSévéritéDuFiltreDeContenu Non
haine résultatDeSévéritéDuFiltreDeContenu Non
automutilation résultatDeSévéritéDuFiltreDeContenu Non

dalleFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID.

Nom Type Descriptif Obligatoire Par défaut
sexuel résultatDeSévéritéDuFiltreDeContenu Non
violence résultatDeSévéritéDuFiltreDeContenu Non
haine résultatDeSévéritéDuFiltreDeContenu Non
automutilation résultatDeSévéritéDuFiltreDeContenu Non
profanité RésultatDeFiltreDeContenuDétecté Non
jailbreak RésultatDeFiltreDeContenuDétecté Non

chatCompletionsRequestCommon

Nom Type Descriptif Obligatoire Par défaut
température nombre Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p nombre Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.
Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
ruisseau boolean Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. Non Faux
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Non
nombre_maximal_de_tokens entier Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4 096 : jetons d’invite). Cette valeur est maintenant déconseillée en faveur de max_completion_tokens, et n’est pas compatible avec les modèles de la série o1. Non 4096
nombre_maximal_de_tokens_de_completion entier Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Non
pénalité_de_presence nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. Non 0
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot. Non 0
logit_bias objet Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement. Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Non
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et à détecter des abus. Non

créerDemandeDeComplétion

Nom Type Descriptif Obligatoire Par défaut
prompt chaîne ou tableau Prompt ou prompts pour lesquels il faut générer des complétions, avec encodage sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de documents que le modèle voit lors de la formation. Par conséquent, si un prompt n’est pas spécifié, le modèle est généré comme s’il s’agissait du début d’un nouveau document.
Oui
best_of entier Génère des complétions best_of côté serveur et retourne la « meilleure » (celle avec la probabilité logarithmique la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Quand il est utilisé avec n, best_of contrôle le nombre de complétions candidates, et n spécifie le nombre de retours. best_of doit être supérieur à n.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
echo boolean Renvoyer l’invite en plus de l’achèvement
Non Faux
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias objet Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le générateur de jetons GPT) avec une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du jeton <|endoftext|>.
Non Aucun
logprobs entier Inclut les probabilités logarithmiques sur les jetons de sortie logprobs les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est égal à 5, l’API retourne une liste des 5 jetons les plus probables. L’API retournant toujours le logprob du jeton échantillonné, il peut donc y avoir jusqu’à logprobs+1 éléments dans la réponse.

La valeur maximale de logprobs est 5.
Non Aucun
nombre_maximal_de_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
Non 16
n entier Nombre d’achèvements à générer pour chaque invite.

Remarque : étant donné que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez-le avec précaution et assurez-vous que vous avez des paramètres raisonnables pour max_tokens et stop.
Non 1
pénalité_de_presence nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
Graines entier S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Non
ruisseau boolean Indique s’il faut renvoyer la progression partielle. S’ils sont définis, les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. Non Faux
suffixe ficelle Suffixe qui vient après l’achèvement d’un texte inséré.

Ce paramètre est uniquement pris en charge pour gpt-3.5-turbo-instruct.
Non Aucun
température nombre Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p nombre Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non

createCompletionResponse

Représente une réponse de complétion de l’API. Remarque : les objets de réponse diffusés et non diffusés partagent la même forme (contrairement au point de terminaison de conversation).

Nom Type Descriptif Obligatoire Par défaut
id ficelle Identificateur unique de la saisie semi-automatique. Oui
choix tableau Liste des choix d’achèvement générés pour l’invite d’entrée. Oui
created entier Horodatage Unix (en secondes) de la création de l’achèvement. Oui
modèle ficelle Modèle utilisé pour la complétion. Oui
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. Non
empreinte_du_système ficelle Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
Non
objet enum Type d’objet, qui est toujours « text_completion »
Valeurs possibles : text_completion
Oui
usage completionUsage Statistiques d’utilisation pour la demande d’achèvement. Non

createChatCompletionRequest

Nom Type Descriptif Obligatoire Par défaut
température nombre Température d’échantillonnage à utiliser, entre 0 et 2. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p mais pas les deux.
Non 1
top_p nombre Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Par conséquent, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature mais pas les deux.
Non 1
ruisseau boolean Si cette option est définie, des deltas de message partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur de données uniquement au fur et à mesure qu’ils deviennent disponibles. Le flux se termine par un message data: [DONE]. Non Faux
stop chaîne ou tableau Jusqu’à quatre séquences dans lesquelles l’API cessera de générer d’autres jetons.
Non
nombre_maximal_de_tokens entier Nombre maximal de jetons pouvant être générés dans la complétion de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
Non
nombre_maximal_de_tokens_de_completion entier Une limite supérieure pour le nombre de jetons pouvant être générés pour une saisie semi-automatique, y compris les jetons de sortie visibles et les jetons de raisonnement. Non
pénalité_de_presence nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens selon qu’ils apparaissent ou non dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
Non 0
frequency_penalty nombre Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité que le modèle répète la même ligne mot pour mot.
Non 0
logit_bias objet Modifiez la probabilité que les jetons spécifiés apparaissent dans l’achèvement.

Accepte un objet JSON qui mappe des jetons (spécifiés par leur ID de jeton dans le générateur de jetons) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
Non Aucun
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus.
Non
Cloud vers appareil tableau Liste des messages comprenant la conversation jusqu’ici. Oui
sources_de_données tableau Les entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
Non
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si true, renvoie les probabilités de journal de chaque jeton de sortie renvoyé dans le content de message. Non Faux
top_logprobs entier Entier compris entre 0 et 20 spécifiant le nombre des jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité logarithmique associée. logprobs devez être défini sur true si ce paramètre est utilisé. Non
n entier Nombre d’options de complétion de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés pour tous les choix. Gardez n défini sur 1 pour minimiser les coûts. Non 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. Non Vrai
format_de_réponse ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Définissez-le sur { "type": "json_schema", "json_schema": {...} } pour activer les sorties structurées, ce qui garantit que le modèle correspondra au schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lorsque vous utilisez le mode JSON, vous devez également demander vous-même au modèle de produire un JSON par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux sans fin d’espaces blancs jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraînerait une requête longue apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.
Non
Graines entier Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système s’efforce d’échantillonner de manière déterministe, de sorte que les requêtes répétées avec le même seed et les mêmes paramètres devraient retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez vous référer au paramètre de réponse system_fingerprint pour surveiller les modifications dans le back-end.
Non
outils tableau Liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option afin de fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
Non
choix d'outil chatCompletionToolChoiceOption Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents. Non
function_call chaîne ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas de fonction et génère un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
Non
fonctions tableau Déconseillé en faveur de tools.

Liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
Non

chatCompletionFunctions

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. Non
nom ficelle Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Oui
paramètres FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.
Non

chatCompletionFunctionCallOption

La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Nom de la fonction à appeler. Oui

chatCompletionRequestMessage

Ce composant peut être l’un des éléments suivants :

Message du système de demande d'achèvement du chat

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau Contenu du message système. Oui
rôle enum Le rôle de l’auteur(-trice) des messages, dans ce cas system.
Valeurs possibles : system
Oui
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non

chatCompletionRequestUserMessage

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau Contenu du message de l’utilisateur.
Oui
rôle enum Le rôle de l’auteur(-trice) des messages, dans ce cas user.
Valeurs possibles : user
Oui
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non

chatCompletionRequestAssistantMessage

Nom Type Descriptif Obligatoire Par défaut
contenu chaîne ou tableau Contenu du message de l’Assistant. Obligatoire, sauf si tool_calls ou function_call est spécifié.
Non
refus ficelle Message de refus de l’assistant. Non
rôle enum Le rôle de l’auteur(-trice) des messages, dans ce cas assistant.
Valeurs possibles : assistant
Oui
nom ficelle Nom facultatif pour le participant. Fournit des informations sur le modèle pour différencier les participants du même rôle. Non
appels_d'outils chatCompletionMessageToolCalls Appels d’outils générés par le modèle, par exemple les appels de fonction. Non
function_call objet Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. Non

Propriétés pour function_call

arguments

Nom Type Descriptif Par défaut
arguments ficelle Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

nom

Nom Type Descriptif Par défaut
nom ficelle Nom de la fonction à appeler.

chatCompletionRequestToolMessage

Nom Type Descriptif Obligatoire Par défaut
rôle enum Le rôle de l’auteur(-trice) des messages, dans ce cas tool.
Valeurs possibles : tool
Oui
contenu chaîne ou tableau Contenu du message de l’outil. Oui
tool_call_id ficelle Appel d’outil auquel ce message répond. Oui

chatCompletionRequestFunctionMessage

Nom Type Descriptif Obligatoire Par défaut
rôle enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : fonction
Oui
contenu ficelle Contenu du message de fonction. Oui
nom ficelle Nom de la fonction à appeler. Oui

Partie de contenu du message système de requête de finalisation de chat

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestUserMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestAssistantMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestToolMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestMessageContentPartText

Nom Type Descriptif Obligatoire Par défaut
type enum Le type de la partie contenu.
Valeurs possibles : text
Oui
texte ficelle Contenu du texte. Oui

chatCompletionRequestMessageContentPartImage

Nom Type Descriptif Obligatoire Par défaut
type enum Le type de la partie contenu.
Valeurs possibles : image_url
Oui
image_url objet Oui

Propriétés pour image_url

url

Nom Type Descriptif Par défaut
url ficelle URL de l’image ou des données d’image encodées en base64.

détail

Nom Type Descriptif Par défaut
détail ficelle Spécifie le niveau de détail de l’image. Découvrez-en plus en consultant le guide de Vision. voiture

chatCompletionRequestMessageContentPartRefusal

Nom Type Descriptif Obligatoire Par défaut
type enum Le type de la partie contenu.
Valeurs possibles : refusal
Oui
refus ficelle Message de refus généré par le modèle. Oui

configuration de l'extension de chat Azure

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui

azureChatExtensionType

Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Description : une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisée par une requête d’achèvements de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Type : string

Par défaut :

Nom de l’énumération : AzureChatExtensionType

Valeurs d’énumération :

Valeur Descriptif
azure_search Représente l’utilisation de Recherche Azure en tant qu’extension de conversation Azure OpenAI.
azure_cosmos_db Représente l’utilisation d’Azure Cosmos DB comme extension de conversation Azure OpenAI.

Configuration d'extension de chat Azure Search

Une représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
paramètres azureSearchChatExtensionParameters Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI. Non

azureSearchChatExtensionParameters

Paramètres de Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
Authentification onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions Oui
top_n_documents entier Nombre maximal configuré de documents à présenter pour la requête configurée. Non
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. Non
informations_sur_le_rôle ficelle Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons. Non
point de terminaison ficelle Chemin d’accès du point de terminaison absolu de la ressource Recherche cognitive Azure à utiliser. Oui
nom_de_l'index ficelle Le nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. Oui
cartographie des champs Options de mappage de champs de l'index de recherche Azure Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource de Recherche cognitive Azure configurée. Non
type_de_requête azureSearchQueryType Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI. Non
configuration_sémantique ficelle La configuration sémantique supplémentaire pour la requête. Non
Filter ficelle Filtre de recherche. Non
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Non

azureSearchIndexFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l'utilisation d'une ressource de Recherche cognitive Azure configurée.

Nom Type Descriptif Obligatoire Par défaut
champ_titre ficelle Nom du champ d’index à utiliser comme titre. Non
url_field ficelle Nom du champ d’index à utiliser comme URL. Non
filepath_field ficelle Nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
champs_de_contenu tableau Nom des champs d’index qui doivent être traités comme du contenu. Non
séparateur_de_champs_de_contenu ficelle Modèle de séparation que les champs de contenu doivent utiliser. Non
champs vectoriels tableau Noms de champs qui représentent des données vectorielles. Non

Type de requête de recherche Azure

Le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Description : le type de requête de récupération Recherche Azure qui doit être exécutée lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Type : string

Par défaut :

Nom de l’énumération : AzureSearchQueryType

Valeurs d’énumération :

Valeur Descriptif
simple Représente l’analyseur de requête par défaut simple.
sémantique Représente l'analyseur de requêtes sémantiques pour la modélisation sémantique avancée.
vecteur Représente la recherche vectorielle sur les données calculées.
vector_simple_hybrid Représente une combinaison de la stratégie d'interrogation simple avec des données vectorielles.
vecteur_sémantique_hybride Représente une combinaison de recherche sémantique et d'interrogation de données vectorielles.

azureCosmosDBChatExtensionConfiguration

Une représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Elle sera utilisé par une requête d’achèvements de conversation
des requêtes d’achèvements qui doivent utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Oui
paramètres azureCosmosDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for
MongoDB vCore.
Non

azureCosmosDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de conversation Azure OpenAI sur vos données lors de l’utilisation d’Azure Cosmos DB for MongoDB vCore.

Nom Type Descriptif Obligatoire Par défaut
Authentification onYourDataConnectionStringAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. Oui
top_n_documents entier Nombre maximal configuré de documents à présenter pour la requête configurée. Non
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. Non
sévérité entier La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais plus faible est le rappel de la réponse. Non
informations_sur_le_rôle ficelle Fournissez au modèle des instructions sur son comportement et sur tout contexte qu’il doit référencer en générant une réponse. Vous pouvez décrire la personnalité de l’assistant, lui dire ce qu’il doit et ne doit pas répondre, et lui indiquer comment formater les réponses. Il existe une limite de 100 jetons pour celle-ci, et elle compte pour la limite globale des jetons. Non
nom_de_la_base_de_données ficelle Le nom de la base de données du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. Oui
nom_du_conteneur ficelle Le nom du conteneur de ressource SQL Azure Cosmos DB. Oui
nom_de_l'index ficelle Le nom de l’index du cœur virtuel MongoDB à utiliser avec Azure Cosmos DB. Oui
cartographie des champs azureCosmosDBFieldMappingOptions Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. Oui
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Oui

azureCosmosDBFieldMappingOptions

Paramètres facultatifs permettant de contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.

Nom Type Descriptif Obligatoire Par défaut
champ_titre ficelle Nom du champ d’index à utiliser comme titre. Non
url_field ficelle Nom du champ d’index à utiliser comme URL. Non
filepath_field ficelle Nom du champ d’index à utiliser comme chemin d’accès au fichier. Non
champs_de_contenu tableau Nom des champs d’index qui doivent être traités comme du contenu. Oui
séparateur_de_champs_de_contenu ficelle Modèle de séparation que les champs de contenu doivent utiliser. Non
champs vectoriels tableau Noms de champs qui représentent des données vectorielles. Oui

surVosOptionsD'AuthentificationDesDonnées

Les options d’authentification pour Azure OpenAI sur vos données.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui

onYourDataAuthenticationType

Les types d’authentification pris en charge avec Azure OpenAI sur vos données.

Description : les types d’authentification pris en charge avec Azure OpenAI sur vos données.

Type : string

Par défaut :

Nom de l’énumération : OnYourDataAuthenticationType

Valeurs d’énumération :

Valeur Descriptif
Clé API Authentification avec clé API.
connection_string Authentification avec chaîne de connexion.
identité gérée attribuée par le système Authentification avec identité managée affectée par le système.
identité_gérée_assignée_par_l'utilisateur Authentification avec identité managée affectée par l’utilisateur(-trice).

onYourDataApiKeyAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
clé ficelle Clé API à utiliser pour l’authentification. Non

onYourDataConnectionStringAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
connection_string ficelle La chaîne de connexion à utiliser pour l’authentification. Non

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataAuthenticationType Les types d’authentification pris en charge avec Azure OpenAI sur vos données. Oui
managed_identity_resource_id ficelle ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. Non

onYourDataVectorizationSource

Une représentation abstraite d’une source de vectorisation pour Azure OpenAI sur vos données avec la recherche vectorielle.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui

onYourDataVectorizationSourceType

Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.

Description : représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.

Type : string

Par défaut :

Nom de l’énumération : OnYourDataVectorizationSourceType

Valeurs d’énumération :

Valeur Descriptif
point de terminaison Représente la vectorisation effectuée par les appels de service public à un modèle d’incorporation Azure OpenAI.
nom_de_déploiement Représente un nom de modèle de déploiement Ada à utiliser. Ce modèle de déploiement doit se trouver dans la même ressource Azure OpenAI, mais
sur vos données utilisera ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui active la
recherche vectorielle même dans des réseaux privés.

onYourDataDeploymentNameVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un nom de modèle de déploiement d’incorporation interne dans la même ressource Azure OpenAI.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui
nom_de_déploiement ficelle Spécifie le nom du modèle de déploiement à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce modèle de déploiement via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. Non

onYourDataEndpointVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un appel public du point de terminaison Azure OpenAI pour des incorporations.

Nom Type Descriptif Obligatoire Par défaut
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI sur vos données peut utiliser pour configurer la vectorisation des données à utiliser avec
la recherche vectorielle.
Oui
Authentification onYourDataApiKeyAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. Non
point de terminaison ficelle Spécifie le point de terminaison à utiliser pour la vectorisation. Ce point de terminaison doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce point de terminaison via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. Non

azureChatExtensionsMessageContext

Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse d’achèvements de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.

Nom Type Descriptif Obligatoire Par défaut
références tableau Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. Non
intention ficelle Intention détectée à partir de l’historique de conversation, utilisée pour passer au prochain tour afin de reporter le contexte. Non

citation

informations de citation pour un message de réponse des saisies semi-automatiques de conversation.

Nom Type Descriptif Obligatoire Par défaut
contenu ficelle Contenu de la citation. Oui
titre ficelle Titre de la citation. Non
url ficelle URL de la citation. Non
filepath ficelle Chemin d’accès au fichier de la citation. Non
identifiant_du_segment ficelle ID de bloc de la citation. Non

chatCompletionMessageToolCall

Nom Type Descriptif Obligatoire Par défaut
id ficelle ID de l’appel de l’outil. Oui
type toolCallType Le type de l’appel d’outil, dans ce cas function. Oui
fonction objet Fonction appelée par le modèle. Oui

Propriétés de la fonction

nom

Nom Type Descriptif Par défaut
nom ficelle Nom de la fonction à appeler.

arguments

Nom Type Descriptif Par défaut
arguments ficelle Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

toolCallType

Le type de l’appel d’outil, dans ce cas function.

Description : le type de l’appel d’outil, dans ce cas function.

Type : string

Par défaut :

Nom de l’énumération : ToolCallType

Valeurs d’énumération :

Valeur Descriptif
fonction Le type de l’appel d’outil est fonction.

chatCompletionRequestMessageTool

Nom Type Descriptif Obligatoire Par défaut
tool_call_id ficelle Appel d’outil auquel ce message répond. Non
contenu ficelle Contenu du message. Non

chatCompletionRequestMessageFunction

Nom Type Descriptif Obligatoire Par défaut
rôle enum Le rôle de l’auteur(-trice) des messages, dans ce cas function.
Valeurs possibles : fonction
Non
nom ficelle Contenu du message. Non
contenu ficelle Contenu du message. Non

createChatCompletionResponse

Représente une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.

Nom Type Descriptif Obligatoire Par défaut
id ficelle Identificateur unique de la complétion de conversation. Oui
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plus de prompts dans la requête. Dans une requête de diffusion en continu, les résultats de différents prompts peuvent arriver à des moments différents ou dans des ordres différents. Non
choix tableau Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs si n est supérieur à 1. Oui
created entier Horodatage Unix (en secondes) de la création de la complétion de conversation. Oui
modèle ficelle Modèle utilisé pour la complétion de conversation. Oui
empreinte_du_système ficelle Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.

Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
Non
objet enum Le type d’objet, qui est toujours chat.completion.
Valeurs possibles : chat.completion
Oui
usage completionUsage Statistiques d’utilisation pour la demande d’achèvement. Non

createChatCompletionStreamResponse

Représente un bloc diffusé en continu d’une réponse de complétion de conversation retournée par le modèle, en fonction de l’entrée fournie.

Nom Type Descriptif Obligatoire Par défaut
id ficelle Identificateur unique de la complétion de conversation. Chaque bloc a le même ID. Oui
choix tableau Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments si n est supérieur à 1.
Oui
created entier Horodatage Unix (en secondes) de la création de la complétion de conversation. Chaque bloc a le même timestamp. Oui
modèle ficelle Modèle utilisé pour générer la complétion. Oui
empreinte_du_système ficelle Cette empreinte digitale représente la configuration du back-end avec laquelle le modèle s’exécute.
Peut être utilisé avec le paramètre de requête seed pour comprendre quand des modifications qui peuvent affecter le déterminisme ont été apportées au back-end.
Non
objet enum Le type d’objet, qui est toujours chat.completion.chunk.
Valeurs possibles : chat.completion.chunk
Oui

chatCompletionStreamResponseDelta

Delta de complétion de conversation généré par les réponses de modèle diffusées en continu.

Nom Type Descriptif Obligatoire Par défaut
contenu ficelle Contenu du message de bloc. Non
function_call objet Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. Non
appels_d'outils tableau Non
rôle enum Rôle de l’auteur de ce message.
Valeurs possibles : system, user, assistant, tool
Non
refus ficelle Message de refus généré par le modèle. Non

Propriétés pour function_call

arguments

Nom Type Descriptif Par défaut
arguments ficelle Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

nom

Nom Type Descriptif Par défaut
nom ficelle Nom de la fonction à appeler.

chatCompletionMessageToolCallChunk

Nom Type Descriptif Obligatoire Par défaut
index entier Oui
id ficelle ID de l’appel de l’outil. Non
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : fonction
Non
fonction objet Non

Propriétés de la fonction

nom

Nom Type Descriptif Par défaut
nom ficelle Nom de la fonction à appeler.

arguments

Nom Type Descriptif Par défaut
arguments ficelle Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

chatCompletionStreamOptions

Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Nom Type Descriptif Obligatoire Par défaut
include_usage boolean Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le message data: [DONE]. Le champ usage de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le champ choices sera toujours un tableau vide. Tous les autres blocs incluent également un champ usage, mais avec une valeur Null.
Non

chatCompletionChoiceLogProbs

Informations de probabilité logarithmique pour le choix.

Nom Type Descriptif Obligatoire Par défaut
contenu tableau Une liste des jetons de contenu de message avec des informations de probabilité logarithmique. Oui
refus tableau Liste des jetons de refus de message avec des informations de probabilité logarithmique. Non

chatCompletionTokenLogprob

Nom Type Descriptif Obligatoire Par défaut
token ficelle Jeton. Oui
logprob nombre La probabilité logarithmique de ce jeton. Oui
octets tableau Une liste d’entiers pour la représentation en octets UTF-8 du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations en octets doivent être combinées pour générer la représentation textuelle correcte. Peut être null s’il n’existe pas de représentation en octets pour le jeton. Oui
top_logprobs tableau Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins que le nombre de top_logprobs demandées retournées. Oui

Message de réponse de complétion de chat

Message de complétion de conversation généré par le modèle.

Nom Type Descriptif Obligatoire Par défaut
rôle chatCompletionResponseMessageRole Le rôle de l’auteur du message de réponse. Oui
refus ficelle Message de refus généré par le modèle. Oui
contenu ficelle Contenu du message. Oui
appels_d'outils tableau Appels d’outils générés par le modèle, par exemple les appels de fonction. Non
function_call chatCompletionFunctionCall Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle. Non
contexte azureChatExtensionsMessageContext Une représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées
dans la génération d’une réponse d’achèvement de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de
l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
Non

chatCompletionResponseMessageRole

Le rôle de l’auteur du message de réponse.

Description : le rôle de l’auteur(-trice) du message de réponse.

Type : string

Par défaut :

Valeurs d’énumération :

  • assistant

chatCompletionToolChoiceOption

Contrôle l’outil (le cas échéant) appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère un message à la place. auto signifie que le modèle peut choisir de générer un message ou d’appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si des outils sont présents.

Ce composant peut être l’un des éléments suivants :

chatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Utilisez-le pour forcer le modèle à appeler une fonction spécifique.

Nom Type Descriptif Obligatoire Par défaut
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : fonction
Oui
fonction objet Oui

Propriétés de la fonction

nom

Nom Type Descriptif Par défaut
nom ficelle Nom de la fonction à appeler.

ParallelToolCalls

Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.

Aucune propriété définie pour ce composant.

chatCompletionMessageToolCalls

Appels d’outils générés par le modèle, par exemple les appels de fonction.

Aucune propriété définie pour ce composant.

chatCompletionFunctionCall

Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, tels que générés par le modèle.

Nom Type Descriptif Obligatoire Par défaut
nom ficelle Nom de la fonction à appeler. Oui
arguments ficelle Arguments à utiliser pour appeler la fonction, tels que générés par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide et peut générer des paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. Oui

completionUsage

Statistiques d’utilisation pour la demande d’achèvement.

Nom Type Descriptif Obligatoire Par défaut
prompt_tokens entier Nombre de jetons dans l’invite. Oui
jetons_de_completion entier Nombre de jetons dans la complétion générée. Oui
nombre_total_de_jetons entier Nombre total de jetons utilisés dans la requête (prompt + complétion). Oui
détails_des_tokens_de_completion objet Répartition des jetons utilisés dans une saisie semi-automatique. Non

Propriétés de completion_tokens_details

jetons_de_raisonnement

Nom Type Descriptif Par défaut
jetons_de_raisonnement entier Jetons générés par le modèle pour le raisonnement.

chatCompletionTool

Nom Type Descriptif Obligatoire Par défaut
type enum Type de l’outil. Actuellement, seule function est prise en charge.
Valeurs possibles : fonction
Oui
fonction FunctionObject Oui

ParamètresDeFonction

Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.

Aucune propriété définie pour ce composant.

FunctionObject

Nom Type Descriptif Obligatoire Par défaut
descriptif ficelle Description du rôle de la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. Non
nom ficelle Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Oui
paramètres FunctionParameters Paramètres acceptés par les fonctions, décrits sous la forme d’un objet de schéma JSON. Consultez le guide pour découvrir des exemples et les informations de référence sur le schéma JSON pour obtenir la documentation sur le format.

L’omission de parameters définit une fonction avec une liste de paramètres vide.
Non
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le champ parameters. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. Non Faux

ResponseFormatText

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini : text
Valeurs possibles : text
Oui

ResponseFormatJsonObject

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini : json_object
Valeurs possibles : json_object
Oui

ResponseFormatJsonSchemaSchema

Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.

Aucune propriété définie pour ce composant.

ResponseFormatJsonSchema

Nom Type Descriptif Obligatoire Par défaut
type enum Type de format de réponse défini : json_schema
Valeurs possibles : json_schema
Oui
json_schema objet Oui

Propriétés pour json_schema

descriptif

Nom Type Descriptif Par défaut
descriptif ficelle Une description de à quoi sert le format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format.

nom

Nom Type Descriptif Par défaut
nom ficelle Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64.

schéma

Nom Type Descriptif Par défaut
schéma ResponseFormatJsonSchemaSchema Schéma du format de réponse, décrit en tant qu’objet de schéma JSON.

strict

Nom Type Descriptif Par défaut
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true. Faux

chatCompletionChoiceCommon

Nom Type Descriptif Obligatoire Par défaut
index entier Non
finish_reason ficelle Non

créerDemandeDeTraduction

Requête de traduction.

Nom Type Descriptif Obligatoire Par défaut
fichier ficelle Le fichier audio à traduire. Oui
prompt ficelle Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Le prompt doit être en anglais. Non
format_de_réponse audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0

réponse audio

Réponse de traduction ou de transcription lorsque response_format était json

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Texte traduit ou transcrit. Oui

audioVerboseResponse

Réponse de traduction ou de transcription lorsque response_format était verbose_json

Nom Type Descriptif Obligatoire Par défaut
texte ficelle Texte traduit ou transcrit. Oui
tâche ficelle Type de tâche audio. Non
Langue ficelle Langue. Non
duration nombre Durée. Non
segments tableau Non

audioResponseFormat

Définit le format de la sortie.

Description : définit le format de la sortie.

Type : string

Par défaut :

Valeurs d’énumération :

  • json
  • texte
  • SRT
  • verbose_json
  • vtt

créerDemandeDeTranscription

Requête de transcription.

Nom Type Descriptif Obligatoire Par défaut
fichier ficelle L’objet de fichier audio à transcrire. Oui
prompt ficelle Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. Non
format_de_réponse audioResponseFormat Définit le format de la sortie. Non
température nombre Température d’échantillonnage comprise entre 0 et 1. Des valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que des valeurs inférieures telles que 0,2 la rendent plus ciblée et déterministe. Si la valeur est 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. Non 0
Langue ficelle La langue de l’audio d’entrée. Donner la langue d’entrée au format ISO-639-1 améliore la précision et la latence. Non

audioSegment

Segment de transcription ou de traduction.

Nom Type Descriptif Obligatoire Par défaut
id entier Identificateur de segment. Non
chercher nombre Décalage du segment. Non
start nombre Décalage de début du segment. Non
end nombre Décalage de fin de segment. Non
texte ficelle Texte du segment. Non
jetons tableau Jetons du texte. Non
température nombre Température. Non
avg_logprob nombre Probabilité logarithmique moyenne. Non
rapport de compression nombre Taux de compression. Non
no_speech_prob nombre Probabilité de no speech. Non

qualité de l'image

La qualité de l’image qui sera générée.

Description : la qualité de l’image qui sera générée.

Type : string

Valeur par défaut : standard

Nom de l’énumération : Quality

Valeurs d’énumération :

Valeur Descriptif
standard La qualité standard crée des images avec une qualité standard.
hd La qualité HD crée des images avec des détails plus fins et une plus grande cohérence dans l’image.

imagesResponseFormat

Format dans lequel les images générées sont retournées.

Description : le format dans lequel les images générées sont retournées.

Type : string

Valeur par défaut : url

Nom de l’énumération : ImagesResponseFormat

Valeurs d’énumération :

Valeur Descriptif
url L’URL qui fournit un accès temporaire pour télécharger les images générées.
b64_json Les images générées sont retournées sous forme de chaîne encodée en base64.

taille de l’image

Taille des images générées.

Description : la taille des images générées.

Type : string

Valeur par défaut : 1024x1024

Nom de l’énumération : Size

Valeurs d’énumération :

Valeur Descriptif
1792x1024 La taille souhaitée de l’image générée est de 1792 x 1024 pixels.
1024x1792 La taille souhaitée de l’image générée est de 1024 x 1792 pixels.
1024x1024 La taille souhaitée de l’image générée est de 1024 x 1024 pixels.

style d'image

Le style des images générées.

Description : le style des images générées.

Type : string

Valeur par défaut : vivid

Nom de l’énumération : Style

Valeurs d’énumération :

Valeur Descriptif
vif Vivid crée des images hyper réalistes et dramatiques.
naturel Natural crée des images qui sont plus naturelles et moins hyper réalistes.

demandeDeGénérationD'Images

Nom Type Descriptif Obligatoire Par défaut
prompt ficelle Description textuelle de la ou des images souhaitées. La longueur maximale est de 4 000 caractères. Oui
n entier Nombre d’images à générer. Non 1
taille imageSize Taille des images générées. Non 1024x1024
format_de_réponse imagesResponseFormat Format dans lequel les images générées sont retournées. Non url
utilisateur ficelle Identificateur unique représentant votre utilisateur final, qui peut vous aider à monitorer et à détecter des abus. Non
qualité imageQuality La qualité de l’image qui sera générée. Non standard
style imageStyle Le style des images générées. Non vif

generateImagesResponse

Nom Type Descriptif Obligatoire Par défaut
created entier Le timestamp unix lors de la création de l’opération. Oui
données tableau Les données de résultat de l’opération, en cas de réussite Oui

résultat d'image

L’URL de l’image ou l’image encodée en cas de réussite et une erreur dans le cas contraire.

Nom Type Descriptif Obligatoire Par défaut
url ficelle L’URL de l’image. Non
b64_json ficelle L’image encodée en base64 Non
résultats_du_filtre_de_contenu dalleContentFilterResults Informations sur les résultats du filtrage de contenu. Non
revised_prompt ficelle Le prompt utilisé pour générer l’image, s’il y a eu une révision de l’invite. Non
prompt_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (une échelle very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage du client, si elle a été filtrée et son ID. Non

Extensions de saisie semi-automatique

Les extensions d’achèvement ne font pas partie de la dernière version en disponibilité générale de la spécification d’inférence du plan de données Azure OpenAI.

ChatMessage

L’objet Chat message ne fait pas partie de la dernière version GA de la spécification d’inférence du plan de données Azure OpenAI.

Synthèse vocale (Préversion)

Ne fait pas actuellement partie de la dernière version Azure OpenAI GA de la spécification d’inférence du plan de données Azure OpenAI. Reportez-vous à la dernière version préversion pour cette fonctionnalité.

Étapes suivantes

En savoir plus sur les Modèles et l’ajustement avec l’API REST. Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.