Partager via


Cycle de vie de l’API Azure OpenAI dans Microsoft Foundry Models

Cet article vous aide à comprendre le cycle de vie de prise en charge des API Azure OpenAI.

Remarque

De nouveaux objets de réponse d’API peuvent être ajoutés à la réponse de l’API à tout moment. Nous vous recommandons d’analyser uniquement les objets de réponse dont vous avez besoin.

Évolution de l’API

Auparavant, Azure OpenAI a reçu des mises à jour mensuelles de nouvelles versions d’API. Tirer parti des nouvelles fonctionnalités requises pour mettre à jour constamment le code et les variables d’environnement avec chaque nouvelle version de l’API. Azure OpenAI a également requis l’étape supplémentaire de l’utilisation de clients spécifiques Azure qui ont créé une surcharge lors de la migration du code entre OpenAI et Azure OpenAI.

À compter d’août 2025, vous pouvez désormais opter pour nos API Azure OpenAI de nouvelle génération v1 qui ajoutent la prise en charge des éléments suivants :

  • L’accès continu aux dernières fonctionnalités sans avoir besoin de spécifier les nouvelles fonctionnalités api-version chaque mois.
  • Cycle de publication d’API plus rapide avec de nouvelles fonctionnalités qui démarrent plus fréquemment.
  • Prise en charge du client OpenAI avec des modifications de code minimales pour alterner entre OpenAI et Azure OpenAI lors de l'utilisation de l'authentification basée sur des clés.
  • Prise en charge du client OpenAI pour l’authentification basée sur les jetons et l’actualisation automatique des jetons sans avoir besoin de prendre une dépendance sur un client Azure OpenAI distinct.
  • Effectuez des appels de saisie semi-automatique de conversation avec des modèles d’autres fournisseurs tels que DeepSeek et Grok qui prennent en charge la syntaxe des complétions de conversation v1.

L’accès aux nouveaux appels d’API qui sont toujours en préversion sera contrôlé en passant des en-têtes d’aperçu spécifiques aux fonctionnalités qui vous permettent de choisir les fonctionnalités souhaitées, sans avoir à échanger les versions de l’API. Par ailleurs, certaines fonctionnalités indiquent l’état d’aperçu par le biais de leur chemin d’API et ne nécessitent pas d’en-tête supplémentaire.

Exemples :

  • /openai/v1/evals est en préversion et nécessite le passage d’un en-tête "aoai-evals":"preview".
  • /openai/v1/fine_tuning/alpha/graders/ est en préversion et ne nécessite aucun en-tête personnalisé en raison de la présence alpha dans le chemin d’accès de l’API.

Pour le lancement initial de l’API v1 en disponibilité générale, nous prenons uniquement en charge un sous-ensemble des fonctionnalités de l’API d’inférence et de création. Toutes les fonctionnalités en disponibilité générale sont prises en charge pour une utilisation en production. Nous ajouterons rapidement la prise en charge d’autres fonctionnalités prochainement.

Modifications du code

API v1

Exemples Python v1

Clé API :

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv("AZURE_OPENAI_API_KEY"),
    base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)

response = client.responses.create(   
  model="gpt-4.1-nano", # Replace with your model deployment name 
  input="This is a test.",
)

print(response.model_dump_json(indent=2)) 
  • OpenAI() le client est utilisé au lieu de AzureOpenAI().
  • base_url transmet le point de terminaison Azure OpenAI et /openai/v1 est ajouté à l’adresse du point de terminaison.
  • api-version n’est plus un paramètre requis avec l’API de disponibilité générale v1.

Clé API avec variables d’environnement définies pour OPENAI_BASE_URL et OPENAI_API_KEY:

client = OpenAI()

ID Microsoft Entra :

Important

La gestion de l’actualisation automatique des jetons a été précédemment gérée par l’utilisation du client AzureOpenAI(). L’API v1 supprime cette dépendance, en ajoutant la prise en charge de l’actualisation automatique des jetons au client OpenAI().

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = OpenAI(  
  base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",  
  api_key = token_provider  
)

response = client.responses.create(
    model="gpt-4.1-nano",
    input= "This is a test" 
)

print(response.model_dump_json(indent=2)) 
  • base_url transmet le point de terminaison Azure OpenAI et /openai/v1 est ajouté à l’adresse du point de terminaison.
  • Le paramètre api_key est défini sur token_provider, ce qui permet la récupération automatique et l’actualisation d’un jeton d’authentification au lieu d’utiliser une clé API statique.

Prise en charge des modèles

Pour les modèles Azure OpenAI, nous vous recommandons d’utiliser l’API Réponses. Toutefois, l’API v1 vous permet également d’effectuer des appels de saisie semi-automatique de conversation avec des modèles d’autres fournisseurs tels que DeepSeek et Grok qui prennent en charge la syntaxe des achèvements de conversation OpenAI v1.

base_url acceptera les formats https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/ et https://YOUR-RESOURCE-NAME.services.ai.azure.com/openai/v1/.

Remarque

L’API Réponses fonctionne également avec les modèles Foundry vendus directement par Azure, tels que Microsoft AI, DeepSeek et Les modèles Grok. Pour savoir comment utiliser l’API Réponses avec ces modèles, consultez Comment générer des réponses de texte avec des modèles Microsoft Foundry.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = OpenAI(  
  base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",  
  api_key=token_provider,
)
completion = client.chat.completions.create(
  model="MAI-DS-R1", # Replace with your model deployment name.
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Tell me about the attention is all you need paper"}
  ]
)

#print(completion.choices[0].message)
print(completion.model_dump_json(indent=2))

Prise en charge des API v1

Statut

Les fonctionnalités généralement disponibles sont prises en charge pour une utilisation en production.

Chemin d’accès de l’API Statut
/openai/v1/chat/completions Disponibilité générale
/openai/v1/embeddings Disponibilité générale
/openai/v1/evals Preview
/openai/v1/files Disponibilité générale
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy Preview
/openai/v1/fine_tuning/alpha/graders/ Preview
/openai/v1/fine_tuning/ Disponibilité générale
/openai/v1/models Disponibilité générale
/openai/v1/responses Disponibilité générale
/openai/v1/vector_stores Disponibilité générale

En-têtes d’aperçu

Chemin d’accès de l’API Header
/openai/v1/evals "aoai-evals":"preview"
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy "aoai-copy-ft-checkpoints" : "preview"

Modifications entre la préversion v1 et la version 2025-04-01-preview

Modifications entre 2025-04-01-preview et 2025-03-01-preview

Modifications entre 2025-03-01-preview et 2025-02-01-preview

Modifications entre 2025-02-01-preview et 2025-01-01-preview

  • Achèvements stockés (prise en charge de l’API de distillation).

Modifications entre 2025-01-01-preview et 2024-12-01-preview

Modifications apportées entre 2024-12-01-preview et 2024-10-01-preview

Modifications entre 2024-09-01-preview et 2024-08-01-preview

  • max_completion_tokens ajouté pour prendre en charge les modèles o1-preview et o1-mini. max_tokens ne fonctionne pas avec les modèles de série o1.
  • parallel_tool_calls a été ajouté.
  • completion_tokens_details et reasoning_tokens ajoutés.
  • stream_options et include_usage ajoutés.

Changements entre la spécification API 2024-07-01-preview et 2024-08-01-preview

  • Prise en charge des sorties structurées.
  • Ajout d’une API pour le téléchargement de fichiers volumineux.
  • Sur les modifications de vos données :
    • Intégration de la base de données Mongo.
    • Le paramètre role_information a été supprimé.
    • rerank_score a été ajouté à l’objet de la citation.
    • La source de données AML a été supprimée.
    • Amélioration de l’intégration de la vectorisation pour la recherche IA.

Modifications apportées entre la spécification de l’API 2024-5-01-preview et 2024-07-01-preview

Modifications apportées entre la spécification de l’API 2024-04-01-preview et 2024-05-01-preview

Changements entre la spécification API 2024-03-01-preview et 2024-04-01-preview

Problèmes connus

  • La spécification 2025-04-01-preview Azure OpenAI utilise OpenAPI 3.1, ce qui est un problème connu, car cela n’est actuellement pas entièrement pris en charge par la Gestion des API Azure.

Étapes suivantes