Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article vous aide à comprendre le cycle de vie de prise en charge des API Azure OpenAI.
Remarque
De nouveaux objets de réponse d’API peuvent être ajoutés à la réponse de l’API à tout moment. Nous vous recommandons d’analyser uniquement les objets de réponse dont vous avez besoin.
Évolution de l’API
Auparavant, Azure OpenAI a reçu des mises à jour mensuelles de nouvelles versions d’API. Tirer parti des nouvelles fonctionnalités requises pour mettre à jour constamment le code et les variables d’environnement avec chaque nouvelle version de l’API. Azure OpenAI a également requis l’étape supplémentaire de l’utilisation de clients spécifiques Azure qui ont créé une surcharge lors de la migration du code entre OpenAI et Azure OpenAI.
À compter d’août 2025, vous pouvez désormais opter pour nos API Azure OpenAI de nouvelle génération v1 qui ajoutent la prise en charge des éléments suivants :
- L’accès continu aux dernières fonctionnalités sans avoir besoin de spécifier les nouvelles fonctionnalités
api-versionchaque mois. - Cycle de publication d’API plus rapide avec de nouvelles fonctionnalités qui démarrent plus fréquemment.
- Prise en charge du client OpenAI avec des modifications de code minimales pour alterner entre OpenAI et Azure OpenAI lors de l'utilisation de l'authentification basée sur des clés.
- Prise en charge du client OpenAI pour l’authentification basée sur les jetons et l’actualisation automatique des jetons sans avoir besoin de prendre une dépendance sur un client Azure OpenAI distinct.
- Effectuez des appels de saisie semi-automatique de conversation avec des modèles d’autres fournisseurs tels que DeepSeek et Grok qui prennent en charge la syntaxe des complétions de conversation v1.
L’accès aux nouveaux appels d’API qui sont toujours en préversion sera contrôlé en passant des en-têtes d’aperçu spécifiques aux fonctionnalités qui vous permettent de choisir les fonctionnalités souhaitées, sans avoir à échanger les versions de l’API. Par ailleurs, certaines fonctionnalités indiquent l’état d’aperçu par le biais de leur chemin d’API et ne nécessitent pas d’en-tête supplémentaire.
Exemples :
-
/openai/v1/evalsest en préversion et nécessite le passage d’un en-tête"aoai-evals":"preview". -
/openai/v1/fine_tuning/alpha/graders/est en préversion et ne nécessite aucun en-tête personnalisé en raison de la présencealphadans le chemin d’accès de l’API.
Pour le lancement initial de l’API v1 en disponibilité générale, nous prenons uniquement en charge un sous-ensemble des fonctionnalités de l’API d’inférence et de création. Toutes les fonctionnalités en disponibilité générale sont prises en charge pour une utilisation en production. Nous ajouterons rapidement la prise en charge d’autres fonctionnalités prochainement.
Modifications du code
API v1
Clé API :
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)
response = client.responses.create(
model="gpt-4.1-nano", # Replace with your model deployment name
input="This is a test.",
)
print(response.model_dump_json(indent=2))
-
OpenAI()le client est utilisé au lieu deAzureOpenAI(). -
base_urltransmet le point de terminaison Azure OpenAI et/openai/v1est ajouté à l’adresse du point de terminaison. -
api-versionn’est plus un paramètre requis avec l’API de disponibilité générale v1.
Clé API avec variables d’environnement définies pour OPENAI_BASE_URL et OPENAI_API_KEY:
client = OpenAI()
ID Microsoft Entra :
Important
La gestion de l’actualisation automatique des jetons a été précédemment gérée par l’utilisation du client AzureOpenAI(). L’API v1 supprime cette dépendance, en ajoutant la prise en charge de l’actualisation automatique des jetons au client OpenAI().
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key = token_provider
)
response = client.responses.create(
model="gpt-4.1-nano",
input= "This is a test"
)
print(response.model_dump_json(indent=2))
-
base_urltransmet le point de terminaison Azure OpenAI et/openai/v1est ajouté à l’adresse du point de terminaison. -
Le paramètre
api_keyest défini surtoken_provider, ce qui permet la récupération automatique et l’actualisation d’un jeton d’authentification au lieu d’utiliser une clé API statique.
Prise en charge des modèles
Pour les modèles Azure OpenAI, nous vous recommandons d’utiliser l’API Réponses. Toutefois, l’API v1 vous permet également d’effectuer des appels de saisie semi-automatique de conversation avec des modèles d’autres fournisseurs tels que DeepSeek et Grok qui prennent en charge la syntaxe des achèvements de conversation OpenAI v1.
base_url acceptera les formats https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/ et https://YOUR-RESOURCE-NAME.services.ai.azure.com/openai/v1/.
Remarque
L’API Réponses fonctionne également avec les modèles Foundry vendus directement par Azure, tels que Microsoft AI, DeepSeek et Les modèles Grok. Pour savoir comment utiliser l’API Réponses avec ces modèles, consultez Comment générer des réponses de texte avec des modèles Microsoft Foundry.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=token_provider,
)
completion = client.chat.completions.create(
model="MAI-DS-R1", # Replace with your model deployment name.
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Tell me about the attention is all you need paper"}
]
)
#print(completion.choices[0].message)
print(completion.model_dump_json(indent=2))
Prise en charge des API v1
Statut
Les fonctionnalités généralement disponibles sont prises en charge pour une utilisation en production.
| Chemin d’accès de l’API | Statut |
|---|---|
/openai/v1/chat/completions |
Disponibilité générale |
/openai/v1/embeddings |
Disponibilité générale |
/openai/v1/evals |
Preview |
/openai/v1/files |
Disponibilité générale |
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy |
Preview |
/openai/v1/fine_tuning/alpha/graders/ |
Preview |
/openai/v1/fine_tuning/ |
Disponibilité générale |
/openai/v1/models |
Disponibilité générale |
/openai/v1/responses |
Disponibilité générale |
/openai/v1/vector_stores |
Disponibilité générale |
En-têtes d’aperçu
| Chemin d’accès de l’API | Header |
|---|---|
/openai/v1/evals |
"aoai-evals":"preview" |
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy |
"aoai-copy-ft-checkpoints" : "preview" |
Modifications entre la préversion v1 et la version 2025-04-01-preview
- API de préversion v1
- Prise en charge de la génération de vidéos
-
NOUVEAU Fonctionnalités de l’API Réponses :
- Intégration de l’outil serveurs MCP (Remote Model Context Protocol)
- Prise en charge des tâches en arrière-plan asynchrones
- Éléments de raisonnement chiffrés
- Génération d’images
Modifications entre 2025-04-01-preview et 2025-03-01-preview
Modifications entre 2025-03-01-preview et 2025-02-01-preview
- API Réponses
- Utilisation de l’ordinateur
Modifications entre 2025-02-01-preview et 2025-01-01-preview
- Achèvements stockés (prise en charge de l’API de distillation).
Modifications entre 2025-01-01-preview et 2024-12-01-preview
-
predictionparamètre ajouté pour la prise en charge des sorties prédites. -
gpt-4o-audio-previewprise en charge du modèle.
Modifications apportées entre 2024-12-01-preview et 2024-10-01-preview
- Les paramètres
storeetmetadataajoutés pour la prise en charge des achèvements stockés. -
Ajout du paramètre
reasoning_effortpour les derniers modèles de raisonnement. -
Ajout du paramètre
user_security_contextpour l’intégration de Microsoft Defender for Cloud.
Modifications entre 2024-09-01-preview et 2024-08-01-preview
-
max_completion_tokensajouté pour prendre en charge les modèleso1-previeweto1-mini.max_tokensne fonctionne pas avec les modèles de série o1. -
parallel_tool_callsa été ajouté. -
completion_tokens_detailsetreasoning_tokensajoutés. -
stream_optionsetinclude_usageajoutés.
Changements entre la spécification API 2024-07-01-preview et 2024-08-01-preview
- Prise en charge des sorties structurées.
- Ajout d’une API pour le téléchargement de fichiers volumineux.
- Sur les modifications de vos données :
- Intégration de la base de données Mongo.
-
Le paramètre
role_informationa été supprimé. -
rerank_scorea été ajouté à l’objet de la citation. - La source de données AML a été supprimée.
- Amélioration de l’intégration de la vectorisation pour la recherche IA.
Modifications apportées entre la spécification de l’API 2024-5-01-preview et 2024-07-01-preview
- Ajout de la prise en charge de l’API Batch
- Paramètres de la stratégie de segmentation du stockage de vecteurs
-
max_num_resultsque l’outil de recherche de fichiers doit produire en sortie.
Modifications apportées entre la spécification de l’API 2024-04-01-preview et 2024-05-01-preview
- Prise en charge d’Assistants v2 : Outil de recherche de fichiers et stockage vectoriel
- Ajustement des points de contrôle, seed, événements
- Sur vos mises à jour de données
- DALL-E 2 prend en charge le modèle de déploiement et vous pouvez l’utiliser avec la dernière API de préversion.
- Mises à jour du filtrage de contenu
Changements entre la spécification API 2024-03-01-preview et 2024-04-01-preview
-
Changement cassant : amélioration des paramètres supprimés. Cela a un impact sur la
gpt-4Version :vision-previewmodèle. - Paramètre timestamp_granularities ajouté.
-
Objet
audioWordajouté. - TTS supplémentaire
response_formats: wav & pcm.
Problèmes connus
- La spécification
2025-04-01-previewAzure OpenAI utilise OpenAPI 3.1, ce qui est un problème connu, car cela n’est actuellement pas entièrement pris en charge par la Gestion des API Azure.