Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel soll Ihnen helfen, den Supportlebenszyklus für Azure OpenAI-APIs zu verstehen.
Hinweis
Neue API-Antwortobjekte können der API-Antwort jederzeit hinzugefügt werden. Es wird empfohlen, nur die benötigten Antwortobjekte zu parsen.
API-Entwicklung
Zuvor erhielt Azure OpenAI monatliche Updates neuer API-Versionen. Durch die Nutzung neuer Features müssen Code- und Umgebungsvariablen ständig mit jeder neuen API-Version aktualisiert werden. Azure OpenAI erforderte auch den zusätzlichen Schritt der Verwendung von Azure-spezifischen Clients, die beim Migrieren von Code zwischen OpenAI und Azure OpenAI Mehraufwand erzeugten.
Ab August 2025 können Sie sich für unsere nächste Generation von Azure OpenAI-APIs, Version 1, anmelden, die Unterstützung für Folgendes hinzufügen:
- Fortlaufender Zugriff auf die neuesten Features, ohne jeden Monat neue
api-version's angeben zu müssen. - Schnellerer API-Releasezyklus mit häufigeren Starts neuer Features.
- OpenAI-Clientunterstützung mit minimalen Codeänderungen für den Austausch zwischen OpenAI und Azure OpenAI bei Verwendung der schlüsselbasierten Authentifizierung.
- OpenAI-Clientunterstützung für die tokenbasierte Authentifizierung und automatische Tokenaktualisierung, ohne dass eine Abhängigkeit von einem separaten Azure OpenAI-Client erforderlich ist.
- Führen Sie Chatabschlussanrufe mit Modellen anderer Anbieter wie DeepSeek und Grok durch, die die v1-Chatabschlusssyntax unterstützen.
Der Zugriff auf neue API-Aufrufe, die sich noch in der Vorschau befinden, wird gesteuert, indem featurespezifische Vorschauheader übergeben werden, sodass Sie sich für die gewünschten Features anmelden können, ohne API-Versionen austauschen zu müssen. Alternativ geben einige Features den Vorschaustatus über ihren API-Pfad an und erfordern keinen zusätzlichen Header.
Beispiele
-
/openai/v1/evalsbefindet sich in der Vorschau und erfordert die Übergabe eines"aoai-evals":"preview"-Headers. -
/openai/v1/fine_tuning/alpha/graders/befindet sich in der Vorschau und erfordert keinen benutzerdefinierten Header aufgrund des Vorhandenseinsalphaim API-Pfad.
Für den anfänglichen Start der GA-API-Version v1 (General Availability) unterstützen wir nur eine Teilmenge der Ableitungs- und Erstellungs-API-Funktionen. Alle GA-Features werden für die Verwendung in der Produktion unterstützt. Wir werden bald schnell Unterstützung für weitere Funktionen hinzufügen.
Änderungen am Code
v1-API
API-Schlüssel:
import os
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
base_url="https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/"
)
response = client.responses.create(
model="gpt-4.1-nano", # Replace with your model deployment name
input="This is a test.",
)
print(response.model_dump_json(indent=2))
-
OpenAI()client wird anstelle vonAzureOpenAI()verwendet. -
base_urlübergibt den Azure OpenAI-Endpunkt und/openai/v1wird an die Endpunktadresse angefügt. -
api-versionist kein erforderlicher Parameter mehr mit der v1 GA-API.
API-Schlüssel mit Umgebungsvariablen für OPENAI_BASE_URL und OPENAI_API_KEY:
client = OpenAI()
Microsoft Entra-ID:
Von Bedeutung
Die automatische Tokenaktualisierung wurde zuvor mit dem AzureOpenAI() Client durchgeführt. Die API-Version v1 entfernt diese Abhängigkeit, indem dem OpenAI()-Client die Unterstützung für die automatische Tokenaktualisierung hinzugefügt wird.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key = token_provider
)
response = client.responses.create(
model="gpt-4.1-nano",
input= "This is a test"
)
print(response.model_dump_json(indent=2))
-
base_urlübergibt den Azure OpenAI-Endpunkt und/openai/v1wird an die Endpunktadresse angefügt. -
Der
api_key-Parameter ist auftoken_providerfestgelegt, wodurch das automatische Abrufen und Aktualisieren eines Authentifizierungstokens anstelle eines statischen API-Schlüssels aktiviert wird.
Modellunterstützung
Für Azure OpenAI-Modelle empfehlen wir die Verwendung der Antwort-API. Die v1-API ermöglicht ihnen jedoch auch, Chatabschlussaufrufe mit Modellen anderer Anbieter wie DeepSeek und Grok zu tätigen, die die OpenAI v1-Chatabschlusssyntax unterstützen.
base_url akzeptiert beide https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/ Formate und https://YOUR-RESOURCE-NAME.services.ai.azure.com/openai/v1/ Formate.
Hinweis
Die Antwort-API funktioniert auch mit Foundry-Modellen, die direkt von Azure verkauft werden, z. B. Microsoft AI-, DeepSeek- und Grok-Modelle. Informationen zur Verwendung der Antwort-API mit diesen Modellen finden Sie unter Generieren von Textantworten mit Microsoft Foundry Models.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=token_provider,
)
completion = client.chat.completions.create(
model="MAI-DS-R1", # Replace with your model deployment name.
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Tell me about the attention is all you need paper"}
]
)
#print(completion.choices[0].message)
print(completion.model_dump_json(indent=2))
v1-API-Unterstützung
Der Status
Allgemein verfügbare Features werden für die Verwendung in der Produktion unterstützt.
| API-Pfad | Der Status |
|---|---|
/openai/v1/chat/completions |
Allgemein verfügbar |
/openai/v1/embeddings |
Allgemein verfügbar |
/openai/v1/evals |
Vorschau |
/openai/v1/files |
Allgemein verfügbar |
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy |
Vorschau |
/openai/v1/fine_tuning/alpha/graders/ |
Vorschau |
/openai/v1/fine_tuning/ |
Allgemein verfügbar |
/openai/v1/models |
Allgemein verfügbar |
/openai/v1/responses |
Allgemein verfügbar |
/openai/v1/vector_stores |
Allgemein verfügbar |
Vorschau von Kopfzeilen
| API-Pfad | Header |
|---|---|
/openai/v1/evals |
"aoai-evals":"preview" |
/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy |
"aoai-copy-ft-checkpoints" : "preview" |
Änderungen zwischen Version 1 Preview und 2025-04-01-preview
- v1 Preview-API
- Unterstützung für die Videogenerierung
-
NEU Antwort-API-Features:
- Integration von Remote Model Context Protocol (MCP)-Serversoftware
- Unterstützung für asynchrone Hintergrundaufgaben
- Verschlüsselte Begründungselemente
- Bildgenerierung
Änderungen zwischen 2025-04-01-Vorschau und 2025-03-01-Preview
Änderungen zwischen 2025-03-01-Vorschau und 2025-02-01-Preview
- Antwort-API-
- Computerverwendung
Änderungen zwischen 2025-02-01-Vorschau und 2025-01-01-Preview
- Gespeicherte Fertigstellungen (Destillations-API-Unterstützung).
Änderungen zwischen 2025-01-01-Vorschau und 2024-12-01-Preview
-
predictionParameter hinzugefügt für Support für prognostizierte Ausgaben. -
gpt-4o-audio-previewModellunterstützung.
Änderungen zwischen 2024-12-01-preview und 2024-10-01-preview
-
storeundmetadataParameter, die für die Unterstützung gespeicherter Fertigstellungen hinzugefügt wurden. -
reasoning_effortfür die neuesten Reasoning-Modelle hinzugefügt -
user_security_contextfür die Integration mit Microsoft Defender for Cloud hinzugefügt
Änderungen zwischen 2024-09-01-preview und 2024-08-01-preview
-
max_completion_tokenshinzugefügt, umo1-preview- undo1-mini-Modelle zu unterstützen.max_tokensfunktioniert nicht mit den o1-Serienmodellen . -
parallel_tool_callshinzugefügt. -
completion_tokens_detailsundreasoning_tokenshinzugefügt. -
stream_optionsundinclude_usagehinzugefügt.
Änderungen zwischen der API-Spezifikation 2024-07-01-preview und 2024-08-01-preview
- Strukturierte Ausgaben unterstützen.
- API für den Upload großer Dateien hinzugefügt.
- Auf Ihre Datenänderungen:
- Mongo DB-Integration.
-
Der Parameter
role_informationwurde entfernt. -
rerank_scorezum Zitatobjekt hinzugefügt. - AML-Datenquelle wurde entfernt.
- Verbesserungen der KI-Suchvektorisierungsintegration.
Änderungen zwischen der API-Spezifikation 2024-5-01-preview und 2024-07-01-preview
- Batch-API-Unterstützung hinzugefügt
- Parameter für die Strategie zur Segmentierung im Vektorspeicher
-
max_num_results-Wert, den das Tool für die Dateisuche ausgeben soll.
Änderungen zwischen der API-Spezifikation2024-04-01-preview und 2024-05-01-preview
- Assistenten v2-Unterstützung – Dateisuchtool und Vektorspeicher
- Optimierung Prüfpunkte, Seed, Ereignisse
- Auf Ihren Datenupdates
- DALL-E 2 unterstützt jetzt die Modellbereitstellung und kann mit der neuesten Vorschau-API verwendet werden.
- Aktualisierungen der Inhaltsfilterung
Änderungen zwischen der API-Spezifikation 2024-03-01-Vorschau und 2024-04-01-Vorschau
-
Breaking Change: Parameter für Verbesserungen entfernt. Dies wirkt sich auf das Modell der
gpt-4Version:vision-previewaus. - Parameter timestamp_granularities hinzugefügt.
-
Objekt
audioWordhinzugefügt. - Zusätzliche TTS
response_formats: wav & pcm.
Bekannte Probleme
- Die
2025-04-01-previewAzure OpenAI-Spezifikation verwendet OpenAPI 3.1, ist ein bekanntes Problem, das derzeit nicht vollständig von Azure API Management unterstützt wird.