Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Opmerking
Dit document verwijst naar de Microsoft Foundry-portal (klassiek).
π Schakel over naar de documentatie van Microsoft Foundry (nieuw) als u de nieuwe portal gebruikt.
Opmerking
Dit document verwijst naar de Microsoft Foundry-portal (nieuw).
In dit artikel vindt u een selectie van Microsoft Foundry-modellen die rechtstreeks door Azure worden verkocht, samen met hun mogelijkheden , implementatietypen en beschikbaarheidsregio's, met uitzondering van afgeschafte en verouderde modellen. Zie Modellen die worden ondersteund door agentservice voor een lijst met Azure OpenAI-modellen die worden ondersteund door de Foundry Agent Service.
Modellen die rechtstreeks door Azure worden verkocht, omvatten alle Azure OpenAI-modellen en specifieke, geselecteerde modellen van topproviders.
Afhankelijk van het type project dat u in Microsoft Foundry gebruikt, ziet u een andere selectie modellen. Als u een Foundry-project gebruikt dat is gebouwd op een Foundry-resource, ziet u de modellen die beschikbaar zijn voor standaardimplementatie naar een Foundry-resource. Als u een hubproject gebruikt dat wordt gehost door een Foundry-hub, ziet u ook modellen die beschikbaar zijn voor implementatie voor beheerde compute- en serverloze API's. Deze modelselecties overlappen vaak omdat veel modellen ondersteuning bieden voor meerdere implementatieopties.
Foundry-modellen zijn beschikbaar voor standaardimplementatie naar een Foundry-resource.
Raadpleeg Explore Foundry Models voor meer informatie over de kenmerken van Foundry Models die direct door Azure worden verkocht.
Opmerking
Foundry Models die rechtstreeks door Azure worden verkocht, bevatten ook geselecteerde modellen van topmodelproviders, zoals:
- Black Forest Labs:
FLUX.2-pro,FLUX.1-Kontext-proFLUX-1.1-pro - Cohere:
Cohere-command-a,embed-v-4-0,Cohere-rerank-v4.0-proCohere-rerank-v4.0-fast - DeepSeek:
DeepSeek-V3.2,DeepSeek-V3.2-Speciale,DeepSeek-V3.1,DeepSeek-V3-0324, ,DeepSeek-R1-0528DeepSeek-R1 - Moonshot AI:
Kimi-K2-Thinking - Meta:
Llama-4-Maverick-17B-128E-Instruct-FP8,Llama-3.3-70B-Instruct - Microsoft:
MAI-DS-R1,model-router - Mistral:
mistral-document-ai-2505,Mistral-Large-3 - xAI:
grok-code-fast-1,grok-3,grok-3-mini,grok-4-fast-reasoning, ,grok-4-fast-non-reasoninggrok-4
Als u meer wilt weten over deze modellen, gaat u naar Andere modelverzamelingen bovenaan dit artikel.
Azure OpenAI in Microsoft Foundry-modellen
Azure OpenAI wordt mogelijk gemaakt door een diverse set modellen met verschillende mogelijkheden en prijspunten. De beschikbaarheid van modellen verschilt per regio en cloud. Voor beschikbaarheid van Azure Government-modellen raadpleegt u Azure OpenAI in Azure Government.
| Models | Description |
|---|---|
| GPT-5.2 serie |
NIEUWgpt-5.2-codex, gpt-5.2, gpt-5.2-chat (preview) |
| GPT-5.1 serie |
NIEUWgpt-5.1, gpt-5.1-chat, , gpt-5.1-codexgpt-5.1-codex-mini |
| Sora | NIEUWE sora-2 |
| GPT-5 serie | gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat |
| gpt-oss | modellen met open gewichtsredenering |
| codex-mini | Verfijnde versie van o4-mini. |
| GPT-4.1 serie | gpt-4.1, gpt-4.1-mini, gpt-4.1-nano |
| computer-use-preview | Een experimenteel model dat is getraind voor gebruik met de computergebruikstool van de Responses API. |
| o-serie modellen | Redeneringsmodellen met geavanceerde probleemoplossing en meer focus en mogelijkheden. |
| GPT-4o, GPT-4o mini en GPT-4 Turbo | Geschikt voor Azure OpenAI-modellen met multimodale versies, die zowel tekst als afbeeldingen als invoer kunnen accepteren. |
| Embeddings | Een set modellen waarmee tekst kan worden omgezet in numerieke vectorvorm om de gelijkenis van tekst te vergemakkelijken. |
| Afbeeldingen genereren | Een reeks modellen waarmee oorspronkelijke afbeeldingen uit natuurlijke taal kunnen worden gegenereerd. |
Video generation |
Een model dat oorspronkelijke videoscènes kan genereren op basis van tekstinstructies. |
| Audio | Een reeks modellen voor spraak naar tekst, vertaling en tekst naar spraak. GPT-4o-audiomodellen ondersteunen ofwel gespreksinteracties met lage latentie spraak-in en spraak-uit, of audiogeneratie. |
GPT-5.2
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
gpt-5.2 |
Bekijk de modeltabellen. |
gpt-5.2-chat |
Bekijk de modeltabellen. |
gpt-5.2-codex |
Oost VS 2 & Zweden Centraal (Globale Standaard) |
Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die eerder toegang tot een model met beperkte toegang hebben aangevraagd en gekregen, hoeven niet opnieuw aan te vragen omdat hun goedgekeurde abonnementen automatisch toegang krijgen wanneer het model wordt vrijgegeven.
| Model-ID | Description | Contextvenster | Max aantal uitvoertokens | Trainingsgegevens (tot en met) |
|---|---|---|---|---|
gpt-5.2-codex (2026-01-14) |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden. - Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | |
gpt-5.2 (2025-12-11) |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden. |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | Augustus 2025 |
gpt-5.2-chat (2025-12-11)Voorbeeld |
- Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. |
128,000 Invoer: 111.616 Uitvoer: 16.384 |
16,384 | Augustus 2025 |
Waarschuwing
We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.
GPT-5.1
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
gpt-5.1 |
Bekijk de modeltabellen. |
gpt-5.1-chat |
Bekijk de modeltabellen. |
gpt-5.1-codex |
Bekijk de modeltabellen. |
gpt-5.1-codex-mini |
Bekijk de modeltabellen. |
gpt-5.1-codex-max |
Bekijk de modeltabellen. |
Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die eerder toegang tot een model met beperkte toegang hebben aangevraagd en gekregen, hoeven niet opnieuw aan te vragen omdat hun goedgekeurde abonnementen automatisch toegang krijgen wanneer het model wordt vrijgegeven.
| Model-ID | Description | Contextvenster | Max aantal uitvoertokens | Trainingsgegevens (tot en met) |
|---|---|---|---|---|
gpt-5.1 (2025-11-13) |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden. |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 30 september 2024 |
gpt-5.1-chat (2025-11-13) Voorbeeld |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. |
128,000 Invoer: 111.616 Uitvoer: 16.384 |
16,384 | 30 september 2024 |
gpt-5.1-codex (2025-11-13) |
-
Alleen antwoord-API . - Tekst- en afbeeldingsverwerking - Gestructureerde uitvoer. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden - Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 30 september 2024 |
gpt-5.1-codex-mini (2025-11-13) |
-
Alleen antwoord-API . - Tekst- en afbeeldingsverwerking - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden - Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 30 september 2024 |
gpt-5.1-codex-max (2025-12-04) |
-
Alleen antwoord-API . - Tekst- en afbeeldingsverwerking - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden - Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 30 september 2024 |
Waarschuwing
We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.
Belangrijk
gpt-5.1reasoning_effortis standaard ingesteld opnone. Wanneer u een upgrade uitvoert van eerdere redeneringsmodellen naargpt-5.1, moet u mogelijk uw code bijwerken om expliciet eenreasoning_effortniveau door te geven als u redenering wilt uitvoeren.gpt-5.1-chatvoegt ingebouwde redeneringsmogelijkheden toe. Net als andere redeneringsmodellen biedt het geen ondersteuning voor parameters zoalstemperature. Als u een upgrade uitvoert van het gebruik vangpt-5-chat(dat geen redeneringsmodel is) naargpt-5.1-chat, zorg ervoor dat u aangepaste parameters zoalstemperatureuit uw code verwijdert, omdat deze niet worden ondersteund door redeneringsmodellen.gpt-5.1-codex-maxvoegt ondersteuning voor instellingreasoning_efforttoe aanxhigh. Redeneringsinspanningennoneworden niet ondersteund metgpt-5.1-codex-max.
GPT-5
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
gpt-5 (2025-08-07) |
Bekijk de modeltabellen. |
gpt-5-mini (2025-08-07) |
Bekijk de modeltabellen. |
gpt-5-nano (2025-08-07) |
Bekijk de modeltabellen. |
gpt-5-chat (2025-08-07) |
Bekijk de modeltabellen. |
gpt-5-chat (2025-10-03) |
Bekijk de modeltabellen. |
gpt-5-codex (2025-09-11) |
Bekijk de modeltabellen. |
gpt-5-pro (2025-10-06) |
Bekijk de modeltabellen. |
Registratie is vereist voor toegang tot de gpt-5-pro, gpt-5, & gpt-5-codex modellen.
gpt-5-mini,gpt-5-nanoengpt-5-chatvereisen geen registratie.
Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die eerder toegang hebben toegepast en toegang o3hebben gekregen, hoeven niet opnieuw toe te passen omdat hun goedgekeurde abonnementen automatisch toegang krijgen bij de release van het model.
| Model-ID | Description | Contextvenster | Max aantal uitvoertokens | Trainingsgegevens (tot en met) |
|---|---|---|---|---|
gpt-5 (2025-08-07) |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden. |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 30 september 2024 |
gpt-5-mini (2025-08-07) |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden. |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 31 mei 2024 |
gpt-5-nano (2025-08-07) |
-
Redenering - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden. |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 31 mei 2024 |
gpt-5-chat (2025-08-07)Voorbeeld |
- Api voor voltooiing van chat. - Antwoord-API. - Invoer: Tekst/afbeelding - Uitvoer: alleen tekst |
128,000 | 16,384 | 30 september 2024 |
gpt-5-chat (2025-10-03)Voorbeeld1 |
- Api voor voltooiing van chat. - Antwoord-API. - Invoer: Tekst/afbeelding - Uitvoer: alleen tekst |
128,000 | 16,384 | 30 september 2024 |
gpt-5-codex (2025-09-11) |
-
Alleen antwoord-API . - Invoer: Tekst/afbeelding - Uitvoer: alleen tekst - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. - Volledig overzicht van de mogelijkheden - Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | - |
gpt-5-pro (2025-10-06) |
-
Redenering - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies en hulpprogramma's - Volledig overzicht van de mogelijkheden. |
400,000 Invoer: 272.000 Uitvoer: 128.000 |
128,000 | 30 september 2024 |
Opmerking
1gpt-5-chat versie 2025-10-03 introduceert een aanzienlijke verbetering gericht op emotionele intelligentie en mentale gezondheid mogelijkheden. Deze upgrade integreert gespecialiseerde gegevenssets en verfijnde responsstrategieΓ«n om het vermogen van het model te verbeteren om:
- Emotionele context nauwkeuriger begrijpen en interpreteren , waardoor genuanceerde en empathische interacties mogelijk zijn.
- Bied ondersteunende, verantwoordelijke reacties in gesprekken met betrekking tot geestelijke gezondheid, waardoor gevoeligheid en naleving van best practices worden gewaarborgd.
Deze verbeteringen hebben tot doel GPT-5-chat meer contextbewust, mensgericht en betrouwbaar te maken in scenario's waarin emotionele toon- en welzijnsoverwegingen essentieel zijn.
Waarschuwing
We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.
gpt-oss
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
gpt-oss-120b |
Alle Azure OpenAI-regio's |
Capabilities
| Model-ID | Description | Contextvenster | Max aantal uitvoertokens | Trainingsgegevens (tot en met) |
|---|---|---|---|---|
gpt-oss-120b (voorbeeld) |
- Alleen tekst in/uit tekst - API voor voltooiing van chat -Streaming - Functie-aanroepen - Gestructureerde uitvoer -Redenering - Beschikbaar voor implementatie1 en via beheerde rekenkracht |
131,072 | 131,072 | 31 mei 2024 |
gpt-oss-20b (voorbeeld) |
- Alleen tekst in/uit tekst - API voor voltooiing van chat -Streaming - Functie-aanroepen - Gestructureerde uitvoer -Redenering - Beschikbaar via beheerde compute en Foundry Local |
131,072 | 131,072 | 31 mei 2024 |
1 In tegenstelling tot andere Azure OpenAI-modellen gpt-oss-120b is een Foundry-project vereist om het model te implementeren.
Implementeren met code
az cognitiveservices account deployment create \
--name "Foundry-project-resource" \
--resource-group "test-rg" \
--deployment-name "gpt-oss-120b" \
--model-name "gpt-oss-120b" \
--model-version "1" \
--model-format "OpenAI-OSS" \
--sku-capacity 10 \
--sku-name "GlobalStandard"
GPT-4.1 serie
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
gpt-4.1 (2025-04-14) |
Bekijk de modeltabellen. |
gpt-4.1-nano (2025-04-14) |
Bekijk de modeltabellen. |
gpt-4.1-mini (2025-04-14) |
Bekijk de modeltabellen. |
Capabilities
Belangrijk
Een bekend probleem heeft invloed op alle GPT 4.1-seriemodellen. Grote hulpprogramma- of functie-aanroepdefinities die meer dan 300.000 tokens overschrijden, leiden tot fouten, ook al is de limiet van 1 miljoen tokencontexten van de modellen niet bereikt.
De fouten kunnen variΓ«ren op basis van API-aanroep en onderliggende nettoladingkenmerken.
Hier volgen de foutberichten voor de API voor chatvoltooiingen:
Error code: 400 - {'error': {'message': "This model's maximum context length is 300000 tokens. However, your messages resulted in 350564 tokens (100 in the messages, 350464 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}Error code: 400 - {'error': {'message': "Invalid 'tools[0].function.description': string too long. Expected a string with maximum length 1048576, but got a string with length 2778531 instead.", 'type': 'invalid_request_error', 'param': 'tools[0].function.description', 'code': 'string_above_max_length'}}
Dit is het foutbericht voor de Antwoorden-API:
Error code: 500 - {'error': {'message': 'The server had an error processing your request. Sorry about that! You can retry your request, or contact us through an Azure support request at: https://go.microsoft.com/fwlink/?linkid=2213926 if you keep seeing this error. (Please include the request ID d2008353-291d-428f-adc1-defb5d9fb109 in your email.)', 'type': 'server_error', 'param': None, 'code': None}}
| Model-ID | Description | Contextvenster | Maximum aantal uitvoertokens | Trainingsgegevens (maximaal) |
|---|---|---|---|---|
gpt-4.1 (2025-04-14) |
- Invoer van tekst en afbeelding - Tekstuitvoer - API voor voltooiing van chat - Antwoord-API -Streaming - Functie-aanroepen - Gestructureerde uitvoer (chatvoltooiingen) |
- 1,047,576 - 128.000 (ingerichte beheerde implementaties) - 300.000 (batchimplementaties) |
32,768 | 31 mei 2024 |
gpt-4.1-nano (2025-04-14) |
- Invoer van tekst en afbeelding - Tekstuitvoer - API voor voltooiing van chat - Antwoord-API -Streaming - Functie-aanroepen - Gestructureerde uitvoer (chatvoltooiingen) |
- 1,047,576 - 128.000 (ingerichte beheerde implementaties) - 300.000 (batchimplementaties) |
32,768 | 31 mei 2024 |
gpt-4.1-mini (2025-04-14) |
- Invoer van tekst en afbeelding - Tekstuitvoer - API voor voltooiing van chat - Antwoord-API -Streaming - Functie-aanroepen - Gestructureerde uitvoer (chatvoltooiingen) |
- 1,047,576 - 128.000 (ingerichte beheerde implementaties) - 300.000 (batchimplementaties) |
32,768 | 31 mei 2024 |
computer-use-preview
Een experimenteel model dat is getraind voor gebruik met de Responses API, een hulpprogramma voor computergebruik.
Het kan worden gebruikt met bibliotheken van derden om het model toe te staan om muis- en toetsenbordinvoer te beheren, terwijl context wordt opgehaald uit schermopnamen van de huidige omgeving.
Waarschuwing
We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.
Registratie is vereist voor toegang computer-use-preview. Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die toegang hebben tot andere modellen met beperkte toegang, moeten nog steeds toegang aanvragen voor dit model.
Als u toegang wilt aanvragen, gaat u naar computer-use-preview de toepassing voor een beperkt toegangsmodel. Wanneer toegang wordt verleend, moet u een implementatie voor het model maken.
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
computer-use-preview |
Bekijk de modeltabellen. |
Capabilities
| Model-ID | Description | Contextvenster | Maximum aantal uitvoertokens | Trainingsgegevens (maximaal) |
|---|---|---|---|---|
computer-use-preview (2025-03-11) |
Gespecialiseerd model voor gebruik met het Responses API-hulpprogramma voor computergebruik. -Gereedschap -Streaming - Tekst (invoer/uitvoer) - Afbeelding (invoer) |
8,192 | 1,024 | Oktober 2023 |
o-serie modellen
De o-serie Azure OpenAI-modellen zijn ontworpen om redenerings- en probleemoplossingstaken aan te pakken met meer focus en mogelijkheden. Deze modellen besteden meer tijd aan het verwerken en begrijpen van de aanvraag van de gebruiker, waardoor ze uitzonderlijk sterk zijn op gebieden zoals wetenschap, codering en wiskunde, vergeleken met eerdere iteraties.
| Model-ID | Description | Maximum aantal aanvragen (tokens) | Trainingsgegevens (maximaal) |
|---|---|---|---|
codex-mini (2025-05-16) |
Verfijnde versie van o4-mini. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies en hulpprogramma's. Volledig overzicht van de mogelijkheden. |
Invoer: 200.000 Uitvoer: 100.000 |
31 mei 2024 |
o3-pro (2025-06-10) |
-
Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies en hulpprogramma's. Volledig overzicht van de mogelijkheden. |
Invoer: 200.000 Uitvoer: 100.000 |
31 mei 2024 |
o4-mini (2025-04-16) |
-
Nieuw redeneringsmodel, met verbeterde redeneringsmogelijkheden. - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies en hulpprogramma's. Volledig overzicht van de mogelijkheden. |
Invoer: 200.000 Uitvoer: 100.000 |
31 mei 2024 |
o3 (2025-04-16) |
-
Nieuw redeneringsmodel, met verbeterde redeneringsmogelijkheden. - Api voor voltooiing van chat. - Antwoord-API. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's. Volledig overzicht van de mogelijkheden. |
Invoer: 200.000 Uitvoer: 100.000 |
31 mei 2024 |
o3-mini (2025-01-31) |
-
Verbeterde redeneringsmogelijkheden. - Gestructureerde uitvoer. - Alleen tekstverwerking. - Functies en hulpprogramma's. |
Invoer: 200.000 Uitvoer: 100.000 |
Oktober 2023 |
o1 (2024-12-17) |
-
Verbeterde redeneringsmogelijkheden. - Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - Functies en hulpprogramma's. |
Invoer: 200.000 Uitvoer: 100.000 |
Oktober 2023 |
o1-preview (2024-09-12) |
Oudere preview-versie. | Invoer: 128.000 Uitvoer: 32.768 |
Oktober 2023 |
o1-mini (2024-09-12) |
Een snellere en rendabelere optie in de o1-serie, ideaal voor het coderen van taken waarvoor snelheid en lager resourceverbruik nodig zijn. - Wereldwijde standaardimplementatie is standaard beschikbaar. - Standaardimplementaties (regionaal) zijn momenteel alleen beschikbaar voor bepaalde klanten die toegang hebben ontvangen als onderdeel van de o1-preview versie met beperkte toegang. |
Invoer: 128.000 Uitvoer: 65,536 |
Oktober 2023 |
Zie Aan de slag met redeneringsmodellen voor meer informatie over geavanceerde o-seriemodellen.
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
codex-mini |
VS - oost 2 & Zweden - centraal (Global Standard). |
o3-pro |
VS - oost 2 & Zweden - centraal (Global Standard). |
o4-mini |
Bekijk de modeltabellen. |
o3 |
Bekijk de modeltabellen. |
o3-mini |
Bekijk de modeltabellen. |
o1 |
Bekijk de modeltabellen. |
o1-preview |
Bekijk de modeltabellen. Dit model is alleen beschikbaar voor klanten die toegang hebben gekregen als onderdeel van de oorspronkelijke beperkte toegang. |
o1-mini |
Bekijk de modeltabellen. |
GPT-4o en GPT-4 Turbo
GPT-4o integreert tekst en afbeeldingen in één model, waardoor het meerdere gegevenstypen tegelijk kan verwerken. Deze multimodale benadering verbetert de nauwkeurigheid en reactiesnelheid in interacties tussen menselijke computers. GPT-4o komt overeen met GPT-4 Turbo in het Engels tekst- en coderingstaken en biedt superieure prestaties in niet-Engelse taaltaken en visietaken, waardoor nieuwe benchmarks voor AI-mogelijkheden worden ingesteld.
GPT-4- en GPT-4 Turbo-modellen
Deze modellen kunnen alleen worden gebruikt met de API voor chatvoltooiingen.
Zie Modelversies voor meer informatie over hoe Azure OpenAI modelversieupgrades verwerkt. Zie Werken met modellen voor meer informatie over het weergeven en configureren van de modelversie-instellingen van uw GPT-4-implementaties.
| Model-ID | Description | Maximum aantal aanvragen (tokens) | Trainingsgegevens (maximaal) |
|---|---|---|---|
gpt-4o (2024-11-20) GPT-4o (Omni) |
- Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - JSON-modus. - Parallelle functie aanroepen. - Verbeterde nauwkeurigheid en reactiesnelheid. - Pariteit met Engelse tekst- en coderingstaken vergeleken met GPT-4 Turbo met Vision. - Superieure prestaties in niet-Engelse talen en bij visuele verwerkingsopdrachten. - Verbeterde creatieve schrijfvaardigheid. |
Invoer: 128.000 Uitvoer: 16.384 |
Oktober 2023 |
gpt-4o (2024-08-06) GPT-4o (Omni) |
- Gestructureerde uitvoer. - Tekst- en afbeeldingsverwerking. - JSON-modus. - Parallelle functie aanroepen. - Verbeterde nauwkeurigheid en reactiesnelheid. - Pariteit met Engelse tekst- en coderingstaken vergeleken met GPT-4 Turbo met Vision. - Superieure prestaties in niet-Engelse talen en bij visuele verwerkingsopdrachten. |
Invoer: 128.000 Uitvoer: 16.384 |
Oktober 2023 |
gpt-4o-mini (2024-07-18) GPT-4o mini |
- Snel, goedkoop, geschikt model ideaal voor het vervangen van GPT-3.5 Turbo-modellen. - Tekst- en afbeeldingsverwerking. - JSON-modus. - Parallelle functie aanroepen. |
Invoer: 128.000 Uitvoer: 16.384 |
Oktober 2023 |
gpt-4o (2024-05-13) GPT-4o (Omni) |
- Tekst- en afbeeldingsverwerking. - JSON-modus. - Parallelle functie aanroepen. - Verbeterde nauwkeurigheid en reactiesnelheid. - Pariteit met Engelse tekst- en coderingstaken vergeleken met GPT-4 Turbo met Vision. - Superieure prestaties in niet-Engelse talen en bij visuele verwerkingsopdrachten. |
Invoer: 128.000 Uitvoer: 4.096 |
Oktober 2023 |
gpt-4 (turbo-2024-04-09) GPT-4 Turbo met Vision |
Nieuw algemeen beschikbaar model. - Vervanging voor alle vorige GPT-4 preview-modellen ( vision-preview, 1106-Preview, 0125-Preview). - De beschikbaarheid van functies verschilt momenteel, afhankelijk van de invoermethode en het implementatietype. |
Invoer: 128.000 Uitvoer: 4.096 |
December 2023 |
Waarschuwing
We raden u niet aan om preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.
Embedderingen
text-embedding-3-large is het meest recente en meest geschikte insluitmodel. U kunt geen upgrade uitvoeren tussen insluitingsmodellen. Als u wilt overstappen van gebruik text-embedding-ada-002 naar text-embedding-3-large, moet u nieuwe insluitingen genereren.
text-embedding-3-largetext-embedding-3-smalltext-embedding-ada-002
OpenAI-rapporten die laten zien dat zowel de grote als de kleine derde generatie insluitingsmodellen betere gemiddelde prestaties van het ophalen van meerdere talen bieden met de MIRACL-benchmark . Ze onderhouden nog steeds prestaties voor Engelse taken met de MTEB-benchmark .
| Evaluatiebenchmark | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
|---|---|---|---|
| MIRACL-gemiddelde | 31.4 | 44.0 | 54.9 |
| MTEB-gemiddelde | 61.0 | 62.3 | 64.6 |
De insluitingsmodellen van de derde generatie ondersteunen het verminderen van de grootte van het insluiten via een nieuwe dimensions parameter. Meestal zijn grotere insluitingen duurder vanuit het perspectief van rekenkracht, geheugen en opslag. Wanneer u het aantal dimensies kunt aanpassen, krijgt u meer controle over de totale kosten en prestaties. De dimensions parameter wordt niet ondersteund in alle versies van de OpenAI 1.x Python-bibliotheek. Als u wilt profiteren van deze parameter, raden we u aan om een upgrade uit te voeren naar de nieuwste versie: pip install openai --upgrade.
De MTEB-benchmarktests van OpenAI hebben vastgesteld dat zelfs wanneer de afmetingen van het derde generatiemodel worden verlaagd tot minder dan de 1536 dimensies van text-embeddings-ada-002, de prestaties iets beter blijven.
Modellen voor het genereren van afbeeldingen
De modellen voor het genereren van afbeeldingen genereren afbeeldingen op basis van tekstprompts die de gebruiker biedt. GPT-image-1-seriemodellen zijn in beperkte previewtoegang. DALL-E 3 is algemeen beschikbaar voor gebruik met de REST API's. DALL-E 2 en DALL-E 3 met client-SDK's zijn in preview.
Registratie is vereist voor toegang tot gpt-image-1, gpt-image-1-mini of gpt-image-1.5. Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die toegang hebben tot andere modellen met beperkte toegang, moeten nog steeds toegang aanvragen voor dit model.
Als u toegang wilt aanvragen, vult u een aanvraagformulier in: Aanvragen voor GPT-image-1-toegang; Aanvragen voor GPT-image-1.5-toegang. Wanneer toegang wordt verleend, moet u een implementatie voor het model maken.
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
dall-e-3 |
East US Australia East Zweden - centraal |
gpt-image-1 |
West VS 3 (Global Standard) Oost VS 2 (Global Standard) UAE - noord (Global Standard) Centraal Polen (Global Standard) Zweden - centraal (Global Standard) |
gpt-image-1-mini |
West VS 3 (Global Standard) Oost VS 2 (Global Standard) UAE - noord (Global Standard) Centraal Polen (Global Standard) Zweden - centraal (Global Standard) |
gpt-image-1.5 |
West VS 3 (Global Standard) Oost VS 2 (Global Standard) UAE - noord (Global Standard) Centraal Polen (Global Standard) Zweden - centraal (Global Standard) |
Modellen voor het genereren van video's
Sora is een AI-model van OpenAI dat realistische en fantasierijke videoscènes kan maken op basis van tekstinstructies. Sora is in de previewfase.
Beschikbaarheid van de regio
| Model | Regio |
|---|---|
sora |
VS - oost 2 (Global Standard) Zweden - centraal (Global Standard) |
sora-2 |
VS - oost 2 (Global Standard) Zweden - centraal (Global Standard) |
Audiomodellen
Audiomodellen in Azure OpenAI zijn beschikbaar via de realtime, completionsen audio API's.
GPT-4o-audiomodellen
De GPT-4o-audiomodellen maken deel uit van de GPT-4o-modelfamilie en ondersteunen ofwel lage latentie, spraak in, gespreksinteracties of audiogeneratie.
Waarschuwing
We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.
Details over maximum aantal aanvraagtokens en trainingsgegevens zijn beschikbaar in de volgende tabel:
| Model-ID | Description | Maximum aantal aanvragen (tokens) | Trainingsgegevens (maximaal) |
|---|---|---|---|
gpt-4o-mini-audio-preview (2024-12-17) GPT-4o audio |
Audiomodel voor het genereren van audio en tekst. | Invoer: 128.000 Uitvoer: 16.384 |
September 2023 |
gpt-4o-audio-preview (2024-12-17) GPT-4o audio |
Audiomodel voor het genereren van audio en tekst. | Invoer: 128.000 Uitvoer: 16.384 |
September 2023 |
gpt-4o-realtime-preview (2025-06-03) GPT-4o audio |
Audiomodel voor realtime audioverwerking. | Invoer: 128.000 Uitvoer: 4.096 |
Oktober 2023 |
gpt-4o-realtime-preview (2024-12-17) GPT-4o audio |
Audiomodel voor realtime audioverwerking. | Invoer: 128.000 Uitvoer: 4.096 |
Oktober 2023 |
gpt-4o-mini-realtime-preview (2024-12-17) GPT-4o audio |
Audiomodel voor realtime audioverwerking. | Invoer: 128.000 Uitvoer: 4.096 |
Oktober 2023 |
gpt-realtime (2025-08-28) (GA)gpt-realtime-mini (2025-10-06)gpt-realtime-mini-2025-12-15 (2025-12-15) gpt-audio(28-08-2025)gpt-audio-mini(2025-10-06) |
Audiomodel voor realtime audioverwerking. | Invoer: 28.672 Uitvoer: 4.096 |
Oktober 2023 |
Als u de beschikbaarheid van GPT-4o-audiomodellen in alle regio's wilt vergelijken, raadpleegt u de tabel modellen.
Audio-API
De audiomodellen via de /audio API kunnen worden gebruikt voor spraak naar tekst, vertaling en tekst naar spraak.
Spraak-naar-tekstmodellen
| Model-ID | Description | Maximale aanvraag (bestandsgrootte van audio) |
|---|---|---|
whisper |
Spraakherkenningsmodel voor algemeen gebruik. | 25 MB |
gpt-4o-transcribe |
Spraak-naar-tekstmodel mogelijk gemaakt door GPT-4o. | 25 MB |
gpt-4o-mini-transcribe |
Spraak-naar-tekstmodel mogelijk gemaakt door GPT-4o mini. | 25 MB |
gpt-4o-transcribe-diarize |
Spraak-naar-tekstmodel met automatische spraakherkenning. | 25 MB |
gpt-4o-mini-transcribe-2025-12-15 |
Spraak-naar-tekstmodel met automatische spraakherkenning. Verbeterde transcriptienauwkeurigheid en robuustheid. | 25 MB |
Spraakomzettingsmodellen
| Model-ID | Description | Maximale aanvraag (bestandsgrootte van audio) |
|---|---|---|
whisper |
Spraakherkenningsmodel voor algemeen gebruik. | 25 MB |
Tekst-naar-spraak-modellen (preview)
| Model-ID | Description |
|---|---|
tts |
Tekst-naar-spraak-model geoptimaliseerd voor snelheid. |
tts-hd |
Tekst-naar-spraak-model geoptimaliseerd voor kwaliteit. |
gpt-4o-mini-tts |
Tekst-naar-spraak model mogelijk gemaakt door GPT-4o mini. U kunt de stem begeleiden om te spreken in een specifieke stijl of toon. |
gpt-4o-mini-tts-2025-12-15 |
Tekst-naar-spraak model mogelijk gemaakt door GPT-4o mini. U kunt de stem begeleiden om te spreken in een specifieke stijl of toon. |
Overzichtstabel van het model en beschikbaarheid per regio
Modellen op implementatietype
Azure OpenAI biedt klanten keuzes in de hostingstructuur die past bij hun bedrijfs- en gebruikspatronen. De service biedt twee hoofdtypen van implementatie:
- Standaard: heeft een globale implementatieoptie, verkeer globaal routeren om een hogere doorvoer te bieden.
- Ingericht: heeft ook een globale implementatieoptie, zodat klanten ingerichte doorvoereenheden kunnen aanschaffen en implementeren in de wereldwijde Infrastructuur van Azure.
Alle implementaties kunnen exact dezelfde deductiebewerkingen uitvoeren, maar de facturering, schaal en prestaties verschillen aanzienlijk. Zie onze handleiding voor implementatietypen van Azure OpenAI voor meer informatie over Azure OpenAI-implementatietypen.
- Algemene standaard
- Globaal ingericht beheerd
- Globale batch
- Standaard gegevenszone
- Gegevenszone ingericht beheerd
- Datazonebatch
- Standard
- Geconfigureerd beheerd
Wereldwijde beschikbaarheid van standard-modellen
| Region | gpt-5.2-codex, 2026-01-14 | gpt-5.2, 2025-12-11 | gpt-5.2-chat, 2025-12-11 | gpt-5.1-codex-max, 2025-12-04 | gpt-5.1, 2025-11-13 | gpt-5.1-chat, 2025-11-13 | gpt-5.1-codex, 2025-11-13 | gpt-5.1-codex-mini, 2025-11-13 | gpt-5-pro, 2025-10-06 | gpt-5-codex, 2025-09-15 | gpt-5, 2025-08-07 | gpt-5-mini, 2025-08-07 | gpt-5-nano, 2025-08-07 | gpt-5-chat, 2025-08-07 | gpt-5-chat, 2025-10-03 | o3-pro, 2025-06-10 | codex-mini, 2025-05-16 | sora, 2025-05-02 | model-router, 2025-08-07 | model-router, 2025-05-19 | model-router, 2025-11-18 | o3, 2025-04-16 | o4-mini, 2025-04-16 | gpt-image-1, 2025-04-15 | gpt-4.1, 2025-04-14 | gpt-4.1-nano, 2025-04-14 | gpt-4.1-mini, 2025-04-14 | voorbeeld-voor-computergebruik, 2025-03-11 | o3-mini, 2025-01-31 | o1, 2024-12-17 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o, 2024-11-20 | gpt-4o-mini, 2024-07-18 | tekst insluiten-3-klein, 1 | tekst-insluiten-3-groot, 1 | text-embedding-ada-002, 2 | gpt-4o-realtime-preview, 2024-12-17 | gpt-4o-audio-preview, 2024-12-17 | gpt-4o-mini-realtime-preview, 2024-12-17 | gpt-4o-mini-audio-preview, 2024-12-17 | gpt-4o-transcribe, 2025-03-20 | gpt-4o-mini-tts, 2025-12-15 | gpt-4o-mini-tts, 2025-03-20 | gpt-4o-mini-transcribe, 2025-12-15 | gpt-4o-mini-transcribe, 2025-03-20 | gpt-image-1-mini, 2025-10-06 | gpt-audio-mini, 2025-10-06 | gpt-audio-mini, 2025-12-15 | gpt-image-1.5, 2025-12-16 | sora-2, 2025-10-06 | gpt-realtime-mini, 2025-10-06 | gpt-realtime-mini, 2025-12-15 | o3-deep-research, 2025-06-26 | gpt-realtime, 2025-08-28 | gpt-audio, 2025-08-28 | gpt-4o-transcribe-diarize, 2025-10-15 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| AustraliΓ« Oost | - | - | - | - | β | β | β | β | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| BraziliΓ« Zuid | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| Canada-Centraal | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | β | - | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| Oost-Canada | - | - | - | - | β | β | β | β | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| centralus | - | - | - | - | - | - | - | - | β | β | β | β | β | β | β | β | β | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | β | β | - | - | β | β | - | β | β | - |
| Eastus | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| eastus2 | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | - | β | β | β |
| francecentral | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| Centraalwest-Duitsland | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| Noord-ItaliΓ« | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | - | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| JapanOost | - | - | - | - | β | β | β | β | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| Korea-Centraal | - | - | - | - | β | β | β | β | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| northcentralus | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| NoorwegenOost | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | β | - | - | - |
| Polencentral | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | β | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | β | - | - | β | - | - | - | - | - | - | - |
| Zuid-Afrika Noord | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| southcentralus | - | β | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| southeastasia | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | - | - | - | β | - | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| Zuid-India | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | β | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| spaincentral | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| swedencentral | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | - | β | - | - | β | β | β | β | β | β | β | β | β | - | β | β | β |
| Zwitserland Noord | - | - | - | - | β | β | β | β | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| switzerlandwest | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | β | - | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| uaenorth | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | β | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | β | - | - | β | - | - | - | - | - | - | - |
| UKSouth | - | - | - | - | β | β | β | β | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| West-Europa | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
| westus | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | - | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | β | - | - | - |
| westus3 | - | - | - | - | - | - | - | - | - | - | β | β | β | - | - | - | - | - | - | - | - | β | β | β | β | β | β | - | β | β | β | β | β | β | β | β | β | - | - | - | - | - | - | - | - | - | β | - | - | β | - | - | - | - | - | - | - |
Opmerking
o3-deep-research is momenteel alleen beschikbaar met Foundry Agent Service. Meer weten? Zie de Deep Research-tool richtlijnen.
Deze tabel bevat geen gedetailleerde regionale beschikbaarheidsgegevens. Raadpleeg de fijnafstemmingssectie voor deze informatie.
Embeddingsmodellen
Deze modellen kunnen alleen worden gebruikt met API-aanvragen voor insluiten.
Opmerking
text-embedding-3-large is het meest recente en meest geschikte insluitmodel. U kunt geen upgrade uitvoeren tussen het insluiten van modellen. Als u wilt migreren van gebruik text-embedding-ada-002 naar text-embedding-3-large, moet u nieuwe insluitingen genereren.
| Model-ID | Maximum aantal aanvragen (tokens) | Uitvoerdimensies | Trainingsgegevens (maximaal) |
|---|---|---|---|
text-embedding-ada-002 (versie 2) |
8,192 | 1,536 | Sep 2021 |
text-embedding-ada-002 (versie 1) |
2,046 | 1,536 | Sep 2021 |
text-embedding-3-large |
8,192 | 3,072 | Sep 2021 |
text-embedding-3-small |
8,192 | 1,536 | Sep 2021 |
Opmerking
Wanneer u een matrix met invoer verzendt voor insluiten, is het maximum aantal invoeritems in de matrix per aanroep naar het eindpunt voor insluiten 2048.
Modellen voor het genereren van afbeeldingen
| Model-ID | Maximum aantal aanvragen (tekens) |
|---|---|
gpt-image-1 |
4,000 |
gpt-image-1-mini |
4,000 |
gpt-image-1.5 |
4,000 |
dall-e-3 |
4,000 |
Modellen voor het genereren van video's
| Model-ID | Maximum aantal aanvragen (tekens) |
|---|---|
| sora | 4,000 |
Modellen verfijnen
Opmerking
De ondersteunde regio's voor het afstemmen kunnen variΓ«ren als u Azure OpenAI-modellen gebruikt in een Microsoft Foundry-project versus buiten een project.
| Model-ID | Standaardregio's | Global | Developer | Maximum aantal aanvragen (tokens) | Trainingsgegevens (maximaal) | Modality |
|---|---|---|---|---|---|---|
gpt-4o-mini (2024-07-18) |
VS - noord-centraal Zweden - centraal |
β | β | Invoer: 128.000 Uitvoer: 16.384 Contextlengte van trainingsvoorbeeld: 65.536 |
Oktober 2023 | Tekst naar tekst |
gpt-4o (2024-08-06) |
Oost-VS 2 VS - noord-centraal Zweden - centraal |
β | β | Invoer: 128.000 Uitvoer: 16.384 Contextlengte van trainingsvoorbeeld: 65.536 |
Oktober 2023 | Tekst en visie op tekst |
gpt-4.1 (2025-04-14) |
VS - noord-centraal Zweden - centraal |
β | β | Invoer: 128.000 Uitvoer: 16.384 Contextlengte van trainingsvoorbeeld: 65.536 |
Mei 2024 | Tekst en visie op tekst |
gpt-4.1-mini (2025-04-14) |
VS - noord-centraal Zweden - centraal |
β | β | Invoer: 128.000 Uitvoer: 16.384 Contextlengte van trainingsvoorbeeld: 65.536 |
Mei 2024 | Tekst naar tekst |
gpt-4.1-nano (2025-04-14) |
VS - noord-centraal Zweden - centraal |
β | β | Invoer: 128.000 Uitvoer: 16.384 Lengte van trainingsvoorbeeldcontext: 32.768 |
Mei 2024 | Tekst naar tekst |
o4-mini (2025-04-16) |
Oost-VS 2 Zweden - centraal |
β | β | Invoer: 128.000 Uitvoer: 16.384 Contextlengte van trainingsvoorbeeld: 65.536 |
Mei 2024 | Tekst naar tekst |
Ministral-3B (voorvertoning) (2411) |
Niet ondersteund | β | β | Invoer: 128.000 Uitvoer: Onbekend Lengte van trainingsvoorbeeld: Onbekend |
Onbekend | Tekst naar tekst |
Qwen-32B (voorbeeld) |
Niet ondersteund | β | β | Invoer: 8.000 Uitvoer: 32.000 Lengte van de context van trainingsvoorbeeld: 8192 |
Juli 2024 | Tekst naar tekst |
Opmerking
Wereldwijde training biedt meer betaalbare training per token, maar biedt geen dataresidency. Het is momenteel beschikbaar voor Foundry-resources in de volgende regio's:
- Australia East
- BraziliΓ« Zuid
- Canada Central
- Canada East
- East US
- Oostelijke VS2
- Centraal Frankrijk
- West-Centraal Duitsland
- Italy North
- Japan - oost (geen vision-ondersteuning)
- Korea Central
- Noord-Centraal VS
- Norway East
- Polen - centraal (geen 4.1-nano-ondersteuning)
- Zuidoost-AziΓ«
- Zuid-Afrika - noord
- Zuid-Centraal Verenigde Staten
- South India
- Spain Central
- Zweden - centraal
- Switzerland West
- Switzerland North
- UK South
- West Europe
- West US
- West-US3
Assistenten (preview)
Voor assistenten hebt u een combinatie van een ondersteund model en een ondersteunde regio nodig. Voor bepaalde hulpprogramma's en mogelijkheden zijn de nieuwste modellen vereist. De volgende modellen zijn beschikbaar in de Assistants-API, SDK en Foundry. De volgende tabel is bedoeld voor de standaardimplementatie. Zie Ingerichte doorvoer voor informatie over de beschikbaarheid van ingerichte doorvoereenheden. De vermelde modellen en regio's kunnen worden gebruikt met zowel Assistenten v1 als v2. U kunt Global Standard-modellen gebruiken als ze worden ondersteund in de volgende regio's.
| Regio | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4, 0613 | gpt-4, 1106-Voorbeeld | gpt-4, 0125-Preview | gpt-4, turbo-2024-04-09 | gpt-4-32k, 0613 | gpt-35-turbo, 0613 | gpt-35-turbo, 1106 | gpt-35-turbo, 0125 | gpt-35-turbo-16k, 0613 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| AustraliΓ« Oost | - | - | - | β | β | - | - | β | β | β | β | β |
| Eastus | β | β | β | - | - | β | β | - | β | - | β | β |
| eastus2 | β | β | β | - | β | - | β | - | β | - | β | β |
| francecentral | - | - | - | β | β | - | - | β | β | β | - | β |
| JapanOost | - | - | - | - | - | - | - | - | β | - | β | β |
| NoorwegenOost | - | - | - | - | β | - | - | - | - | - | - | - |
| Zuid-India | - | - | - | - | β | - | - | - | - | β | β | - |
| swedencentral | β | β | β | β | β | - | β | β | β | β | - | β |
| UKSouth | - | - | - | - | β | β | - | - | β | β | β | β |
| westus | β | β | β | - | β | - | β | - | - | β | β | - |
| westus3 | β | β | β | - | β | - | β | - | - | - | β | - |
Buitengebruikstelling van model
Raadpleeg de handleiding voor buitengebruikstelling van modellen voor de meest recente informatie over buitengebruikstelling van modellen.
Verwante inhoud
Opmerking
Foundry Models die rechtstreeks door Azure worden verkocht, bevatten ook alle Azure OpenAI-modellen. Als u meer wilt weten over deze modellen, gaat u naar de verzameling Azure OpenAI-modellen bovenaan dit artikel.
Black Forest Labs-modellen die rechtstreeks door Azure worden verkocht
De BFL-verzameling (Black Forest Labs) van modellen voor het genereren van afbeeldingen bevat FLUX.2 [pro] voor het genereren en bewerken van afbeeldingen via tekst- en afbeeldingsprompts, FLUX.1 Kontext [pro] voor het genereren en bewerken van context en FLUX1.1 [pro] voor het genereren van tekst-naar-afbeelding.
U kunt deze modellen runnen via de API van de BFL-serviceprovider en via de afbeeldingen/generaties en afbeeldingen/bewerkingen-eindpunten.
Opmerking
Bekijk het GitHub-voorbeeld voor het genereren van afbeeldingen met FLUX-modellen in Microsoft Foundry en het bijbehorende notebook waarin wordt getoond hoe u afbeeldingen van hoge kwaliteit maakt op basis van tekstprompts.
| Model | Type & API-eindpunt | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| FLUX.2-pro |
Afbeeldingen genereren - BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-2-pro |
-
Invoer: tekst en afbeelding (32.000 tokens en maximaal 8 afbeeldingeni) - Uitvoer: EΓ©n afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) - Belangrijke functies: Ondersteuning voor meerdere verwijzingen voor maximaal 8 afbeeldingenii, meer gegrond in echte wereldkennis, grotere uitvoerflexibiliteit, verbeterde prestaties - Aanvullende parameters:(alleen in providerspecifieke API) ondersteunt alle parameters. |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| FLUX.1-Kontext-pro |
Afbeeldingen genereren - Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations en https://<resource-name>/openai/deployments/{deployment-id}/images/edits - BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview |
-
Invoer: tekst en afbeelding (5.000 tokens en 1 afbeelding) - Uitvoer: EΓ©n afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) - Belangrijke functies: Tekenconsistentie, geavanceerd bewerken - Aanvullende parameters:(Alleen providerspecifieke API) seed, aspect ratio, , input_image, prompt_unsampling, , safety_toleranceoutput_format |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| FLUX-1.1-pro |
Afbeeldingen genereren - Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations - BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview |
-
Invoer: tekst (5.000 tokens en 1 afbeelding) - Uitvoer: EΓ©n afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) - Belangrijke functies: Snelle deductiesnelheid, sterke naleving van prompts, concurrerende prijzen, schaalbare generatie - Aanvullende parameters:(Alleen providerspecifieke API) width, height, , prompt_unsampling, seed, , safety_toleranceoutput_format |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| Model | Type & API-eindpunt | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
FLUX.2-pro |
Afbeeldingen genereren - BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-2-pro |
-
Invoer: tekst (32.000 tokens en maximaal 8 afbeeldingeni) - Uitvoer: EΓ©n afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) - Belangrijke functies: Ondersteuning voor meerdere verwijzingen voor maximaal 8 afbeeldingenii, meer gegrond in echte wereldkennis, grotere uitvoerflexibiliteit, verbeterde prestaties - Aanvullende parameters:(alleen in providerspecifieke API) ondersteunt alle parameters. |
- Algemene standaard (alle regio's) |
FLUX.1-Kontext-pro |
Afbeeldingen genereren - Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations en https://<resource-name>/openai/deployments/{deployment-id}/images/edits - BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview |
-
Invoer: tekst en afbeelding (5.000 tokens en 1 afbeelding) - Uitvoer: EΓ©n afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) - Belangrijke functies: Tekenconsistentie, geavanceerd bewerken - Aanvullende parameters:(Alleen providerspecifieke API) seed, aspect ratio, , input_image, prompt_unsampling, , safety_toleranceoutput_format |
- Algemene standaard (alle regio's) |
FLUX-1.1-pro |
Afbeeldingen genereren - Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations - BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview |
-
Invoer: tekst (5.000 tokens en 1 afbeelding) - Uitvoer: EΓ©n afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) - Belangrijke functies: Snelle deductiesnelheid, sterke naleving van prompts, concurrerende prijzen, schaalbare generatie - Aanvullende parameters:(Alleen providerspecifieke API) width, height, , prompt_unsampling, seed, , safety_toleranceoutput_format |
- Algemene standaard (alle regio's) |
i,ii Ondersteuning voor meerdere referentieafbeeldingen (maximaal acht) is beschikbaar voor FLUX.2[pro] met behulp van de API, maar niet in de speeltuin. Zie de volgende codevoorbeelden voor FLUX.2[pro].
Codevoorbeelden voor FLUX.2[pro]
Afbeeldingen genereren
- Invoer: tekst
- Uitvoer: één afbeelding
curl -X POST https://<your-resource-name>.api.cognitive.microsoft.com/providers/blackforestlabs/v1/flux-2-pro?api-version⦠\
β― -H "Content-Type: application/json" \
β― -H "Authorization: Bearer {API_KEY}" \
β― -d '{
β― "model": "FLUX.2-pro"
β― "prompt": "A photograph of a red fox in an autumn forest",
β― "width": 1024,
β― "height": 1024,
β― "seed": 42,
β― "safety_tolerance": 2,
β― "output_format": "jpeg",
}'
Afbeelding bewerken
- Invoer: Maximaal acht bit-64 gecodeerde afbeeldingen
- Uitvoer: één afbeelding
curl -X POST https://<your-resource-name>.api.cognitive.microsoft.com/providers/blackforestlabs/v1/flux-2-pro?api-version⦠\
β― -H "Content-Type: application/json" \
β― -H "Authorization: Bearer {API_KEY}" \
β― -d '{
β― "model": "FLUX.2-pro",
β― "prompt": "Apply a cinematic, moody lighting effect to all photos. Make them look like scenes from a sci-fi noir film",
β― "output_format": "jpeg",
β― "input_image" : "/9j/4AAQSkZJRgABAQAAAQABAAD/2wBDA.......",
β― "input_image_2" : "iVBORw0KGgoAAAANSUhEUgAABAAAAAQACAIAAADwf........"
}'
Bekijk deze modelverzameling in de Microsoft Foundry-portal.
Cohere-modellen die rechtstreeks door Azure worden verkocht
De cohere-serie met modellen bevat verschillende modellen die zijn geoptimaliseerd voor verschillende gebruiksvoorbeelden, waaronder chatvoltooiingen, herrankering/tekstclassificatie en insluitingen. Cohere-modellen zijn geoptimaliseerd voor verschillende gebruiksvoorbeelden, waaronder redenering, samenvatting en antwoord op vragen.
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| Cohere-rerank-v4.0-pro | tekstclassificatie (opnieuw rangschikking) |
-
Invoer: tekst - Uitvoer: tekst - Talen: en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: JSON |
- Algemene standaard (alle regio's) - Beheerde rekenkracht |
Foundry, op basis van hub |
| Cohere-rerank-v4.0-fast | tekstclassificatie (opnieuw rangschikking) |
-
Invoer: tekst - Uitvoer: tekst - Talen: en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: JSON |
- Algemene standaard (alle regio's) - Beheerde rekenkracht |
Foundry, op basis van hub |
| Cohere-command-a | chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (8.182 tokens) - Talen: en, fr, es, it, de, pt-br, ja, ko, en zh-cnar - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| embed-v-4-0 | embeddings |
-
Invoer: tekst (512 tokens) en afbeeldingen (2MM pixels) - Uitvoer: Vector (256, 512, 1024, 1536 dimensies) - Talen: en, fr, es, it, de, pt-br, ja, ko, en zh-cnar |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
| Cohere-rerank-v4.0-pro | tekstclassificatie (opnieuw rangschikking) |
-
Invoer: tekst - Uitvoer: tekst - Talen: en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: JSON |
- Algemene standaard (alle regio's) - Beheerde rekenkracht |
| Cohere-rerank-v4.0-fast | tekstclassificatie (opnieuw rangschikking) |
-
Invoer: tekst - Uitvoer: tekst - Talen: en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: JSON |
- Algemene standaard (alle regio's) - Beheerde rekenkracht |
Cohere-command-a |
chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (8.182 tokens) - Talen: en, fr, es, it, de, pt-br, ja, ko, en zh-cnar - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) |
embed-v-4-0 |
embeddings |
-
Invoer: tekst (512 tokens) en afbeeldingen (2MM pixels) - Uitvoer: Vector (256, 512, 1024, 1536 dimensies) - Talen: en, fr, es, it, de, pt-br, ja, ko, en zh-cnar |
- Algemene standaard (alle regio's) |
Zie de verzameling Cohere-modellen in de Foundry-portal.
DeepSeek-modellen die rechtstreeks door Azure worden verkocht
De DeepSeek-serie met modellen bevat verschillende redeneringsmodellen, die excelleren bij het redeneren van taken met behulp van een stapsgewijs trainingsproces, zoals taal, wetenschappelijke redenering en coderingstaken.
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| DeepSeek-V3.2-Speciale | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (128.000 tokens) - Uitvoer: (128.000 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| DeepSeek-V3.2 | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (128.000 tokens) - Uitvoer: (128.000 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| DeepSeek-V3.1 | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (131.072 tokens) - Uitvoer: (131.072 tokens) - Talen: en en zh - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| DeepSeek-R1-0528 | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (163.840 tokens) - Uitvoer: (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
- Algemene standaard (alle regio's) - Wereldwijd ingericht (alle regio's) |
Foundry, op basis van hub |
| DeepSeek-V3-0324 | chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: (131.072 tokens) - Talen: en en zh - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) - Wereldwijd ingericht (alle regio's) |
Foundry, op basis van hub |
| DeepSeek-R1 | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (163.840 tokens) - Uitvoer: (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
- Algemene standaard (alle regio's) - Wereldwijd ingericht (alle regio's) |
Foundry, op basis van hub |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
DeepSeek-V3.2-Speciale |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (128.000 tokens) - Uitvoer: (128.000 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) |
DeepSeek-V3.2 |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (128.000 tokens) - Uitvoer: (128.000 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) |
DeepSeek-V3.1 |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (131.072 tokens) - Uitvoer: (131.072 tokens) - Talen: en en zh - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) |
DeepSeek-R1-0528 |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (163.840 tokens) - Uitvoer: (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
- Algemene standaard (alle regio's) - Wereldwijd ingericht (alle regio's) |
DeepSeek-V3-0324 |
chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: (131.072 tokens) - Talen: en en zh - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Algemene standaard (alle regio's) - Wereldwijd ingericht (alle regio's) |
DeepSeek-R1 |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (163.840 tokens) - Uitvoer: (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
- Algemene standaard (alle regio's) - Wereldwijd ingericht (alle regio's) |
Bekijk deze modelverzameling in de Foundry-portal.
Metamodellen die rechtstreeks door Azure worden verkocht
Meta Llama-modellen en -hulpprogramma's zijn een verzameling vooraf getrainde en verfijnde AI-tekst- en afbeeldingsredenmodellen. Metamodellen variΓ«ren in schaal om het volgende op te nemen:
- Kleine taalmodellen (SLM's) zoals 1B en 3B Base en Instruct-modellen voor inferentie op het apparaat zelf en edge-computing
- Middelgrote grote taalmodellen (LLM's) zoals 7B, 8B en 70B Base- en Instruct-modellen
- Krachtige modellen zoals Meta Llama 3.1-405B Instruct for synthetic data generation and distilling use cases.
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| Llama-4-Maverick-17B-128E-Instruct-FP8 | chat-completion |
-
Invoer: tekst en afbeeldingen (1M-tokens) - Uitvoer: tekst (1M-tokens) - Talen: ar, en, fr, de, hi, id, it, pt, es, tl, en thvi - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| Llama-3.3-70B-Instruct | chat-completion |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Talen: en, de, fr, it, pt, hi, en esth - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
Llama-4-Maverick-17B-128E-Instruct-FP8 |
chat-completion |
-
Invoer: tekst en afbeeldingen (1M-tokens) - Uitvoer: tekst (1M-tokens) - Talen: ar, en, fr, de, hi, id, it, pt, es, tl, en thvi - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
- Algemene standaard (alle regio's) |
Llama-3.3-70B-Instruct |
chat-completion |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Talen: en, de, fr, it, pt, hi, en esth - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
- Algemene standaard (alle regio's) |
Bekijk deze modelverzameling in de Foundry-portal. U kunt ook verschillende Meta-modellen vinden die beschikbaar zijn bij partners en community's.
Microsoft-modellen die rechtstreeks door Azure worden verkocht
Microsoft-modellen omvatten verschillende modelgroepen, zoals Model Router, MAI-modellen, Phi-modellen, AI-modellen voor gezondheidszorg en meer. Zie de Microsoft-modelverzameling in de Foundry-portal. U kunt ook verschillende Microsoft-modellen vinden die beschikbaar zijn bij partners en community's.
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| model-router1 | chat-completion | Meer informatie in het overzicht van modelrouters. - Invoer: tekst, afbeelding - Uitvoer: tekst (max. uitvoertokens variΓ«ren2) Contextvenster: 200.0003 - Talen: en |
- Wereldwijde standaard (VS - oost 2, Zweden - centraal) - Data Zone standaard4 (Oost-US 2, Centraal Zweden) |
Foundry, op basis van hub |
| MAI-DS-R1 | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (163.840 tokens) - Uitvoer: (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
| model-router1 | chat-completion | Meer informatie in het overzicht van modelrouters. - Invoer: tekst, afbeelding - Uitvoer: tekst (max. uitvoertokens variΓ«ren2) Contextvenster: 200.0003 - Talen: en |
- Wereldwijde standaard (VS - oost 2, Zweden - centraal) - Data Zone standaard4 (Oost-US 2, Centraal Zweden) |
MAI-DS-R1 |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (163.840 tokens) - Uitvoer: (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
- Algemene standaard (alle regio's) |
1Routermodelversie2025-11-18. Eerdere versies (2025-08-07 en 2025-05-19) zijn ook beschikbaar.
2Max-uitvoertokens variΓ«ren voor onderliggende modellen in de modelrouter. Bijvoorbeeld 32.768 (GPT-4.1 series), 100.000 (o4-mini), 128.000 (gpt-5 reasoning models) en 16.384 (gpt-5-chat).
3 Grotere contextvensters zijn compatibel met enkele van de onderliggende modellen van de modelrouter. Dat betekent dat een API-aanroep met een grotere context alleen slaagt als de prompt naar een van deze modellen wordt doorgestuurd. Anders mislukt de aanroep.
4 Facturering voor routerimplementaties van het standaardmodel voor gegevenszones begint niet eerder dan 1 november 2025.
Mistral modellen die rechtstreeks door Azure worden verkocht
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| Mistral-Large-3 | chat-completion |
-
Invoer: tekst, afbeelding - Uitvoer: tekst - Talen: en, fr, de, es, it, pt, nl, zh, ja, ko en ar - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Globale standaard (VS - west 3) | Gieterij |
| mistral-document-ai-2505 | Afbeelding naar tekst |
-
Invoer: afbeeldings- of PDF-pagina's (30 pagina's, maximaal 30 MB PDF-bestand) - Uitvoer: tekst - Talen: en - Aanroepen van hulpprogramma's: nee - Antwoordindelingen: Tekst, JSON, Markdown |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS en EU) |
Gieterij |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
Mistral-Large-3 |
chat-completion |
-
Invoer: tekst, afbeelding - Uitvoer: tekst - Talen: en, fr, de, es, it, pt, nl, zh, ja, ko en ar - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst, JSON |
- Globale standaard (VS - west 3) |
mistral-document-ai-2505 |
Afbeelding naar tekst |
-
Invoer: afbeeldings- of PDF-pagina's (30 pagina's, maximaal 30 MB PDF-bestand) - Uitvoer: tekst - Talen: en - Aanroepen van hulpprogramma's: nee - Antwoordindelingen: Tekst, JSON, Markdown |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS en EU) |
Zie de Mistral-modelverzameling in de Foundry-portal. U kunt ook verschillende Mistral-modellen vinden die beschikbaar zijn bij partners en community's.
Moonshot AI-modellen die rechtstreeks door Azure worden verkocht
Moonshot AI-modellen omvatten Kimi K2 Thinking, de nieuwste, meest geschikte versie van opensource-denkmodel. Kimi K2 is gebouwd als een denkende agent die stapsgewijs redeneert terwijl hij hulpprogramma's dynamisch aanroept. Het zet een nieuwe norm in de nieuwste stand van de techniek op Humanity's Last Exam (HLE), BrowseComp en andere benchmarks door de redeneerdiepte van meerdere stappen drastisch te vergroten en stabiel hulmiddelengebruik te behouden over 200-300 opeenvolgende oproepen.
De belangrijkste mogelijkheden van Kimi K2 Thinking zijn:
- Deep Thinking & Tool Orchestration: Van begin tot eind getraind om keten van gedachten redenering te combineren met functieoproepen, waardoor autonome onderzoeks-, coderings- en schrijfprocessen mogelijk zijn die honderden stappen lang zijn zonder afwijking.
- Systeemeigen INT4 Kwantisatie: Quantization-Aware Training (QAT) wordt in de posttrainingsfase gebruikt om verliesloze 2x snelheid te bereiken in modus met lage latentie.
- Stabiele Lange Termijn Capaciteit: Onderhoudt coherent doelgericht gedrag voor maximaal 200-300 opeenvolgende aanroepen van tools, en overtreft eerdere modellen die na 30-50 stappen afnemen.
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| Kimi-K2-Thinking | chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (262.144 tokens) - Uitvoer: tekst (262.144 tokens) - Talen: en en zh - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
Kimi-K2-Thinking |
chat-completion (met redeneringsinhoud) |
-
Invoer: tekst (262.144 tokens) - Uitvoer: tekst (262.144 tokens) - Talen: en en zh - Aanroepen van hulpprogramma' s: Ja - Antwoordindelingen: Tekst |
- Algemene standaard (alle regio's) |
Bekijk deze modelverzameling in de Foundry-portal.
xAI-modellen die rechtstreeks door Azure worden verkocht
De Grok-modellen van xAI in Foundry Models omvatten een diverse set modellen die zijn ontworpen om te excelleren in verschillende bedrijfsdomeinen met verschillende mogelijkheden en prijspunten, waaronder:
Grok 3, een niet-redenerend model dat vooraf is getraind door het Kolossus-datacenter, is afgestemd op zakelijke gebruiksvoorbeelden zoals gegevensextractie, codering en samenvatting van tekst, met uitzonderlijke instructievolgmogelijkheden. Het biedt ondersteuning voor een contextvenster van 131.072 token, zodat het uitgebreide invoer kan verwerken terwijl de samenhang en diepte behouden blijft en verbindingen tussen domeinen en talen kan tekenen.
Grok 3 Mini is een lichtgewicht redeneringsmodel dat is getraind om agentische, coderings-, wiskundige en deep science-problemen met testtijd berekenen aan te pakken. Het biedt ook ondersteuning voor een contextvenster van 131.072 token voor inzicht in codebases en zakelijke documenten en excelt in het gebruik van hulpprogramma's om complexe logische problemen in nieuwe omgevingen op te lossen, met onbewerkte redeneringstraceringen voor gebruikersinspectie met aanpasbare denkbudgetten.
Grok Code Fast 1, een snel en efficiΓ«nt redeneringsmodel dat is ontworpen voor gebruik in agentische coderingstoepassingen. Het werd vooraf getraind op een op codering gericht gegevensmengsel, en vervolgens post-getraind op demonstraties van verschillende codetaken en het gebruik van hulpprogramma's, evenals demonstraties van correct weigeringsgedrag op basis van het veiligheidsbeleid van xAI. Registratie is vereist voor toegang tot het grok-code-fast-1-model.
Grok 4 Fast, een op efficiΓ«ntie geoptimaliseerd taalmodel dat near-Grok 4-redeneringsmogelijkheden biedt met aanzienlijk lagere latentie en kosten, en kan redenering volledig omzeilen voor ultrasnelle toepassingen. Het is getraind voor veilig en effectief gebruik van hulpprogramma's, met ingebouwd weigeringsgedrag, een vaste veiligheidsafdwinging systeemprompt en invoerfilters om misbruik te voorkomen.
Grok 4 is het nieuwste redeneringsmodel van xAI met geavanceerde redenerings- en toolgebruiksmogelijkheden, zodat het nieuwe geavanceerde prestaties kan bereiken in uitdagende academische en industriebenchmarks. Registratie is vereist voor toegang tot het grok-4-model. In tegenstelling tot Grok 4 Fast-modellen (redeneren en niet-redeneren), biedt Grok 4 geen ondersteuning voor afbeeldingsinvoer.
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) | Project-type |
|---|---|---|---|---|
| grok-4 | chat-completion |
-
Invoer: tekst (262.000 tokens) - Uitvoer: tekst (8.192 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| grok-4-fast-reasoning | chat-completion |
-
Invoer: tekst, afbeelding (128.000 tokens) - Uitvoer: tekst (128.000 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
Foundry, op basis van hub |
| grok-4-fast-non-reasoning | chat-completion |
-
Invoer: tekst, afbeelding (128.000 tokens) - Uitvoer: tekst (128.000 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
Foundry, op basis van hub |
| grok-code-fast-1 | chat-completion |
-
Invoer: tekst (256.000 tokens) - Uitvoer: tekst (8.192 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) | Foundry, op basis van hub |
| grok-3 | chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
Foundry, op basis van hub |
| grok-3-mini | chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
Foundry, op basis van hub |
| Model | Typologie | Capabilities | Implementatietype (beschikbaarheid van regio's) |
|---|---|---|---|
grok-4 |
chat-completion |
-
Invoer: tekst (262.000 tokens) - Uitvoer: tekst (8.192 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) |
grok-4-fast-reasoning |
chat-completion |
-
Invoer: tekst, afbeelding (128.000 tokens) - Uitvoer: tekst (128.000 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
grok-4-fast-non-reasoning |
chat-completion |
-
Invoer: tekst, afbeelding (128.000 tokens) - Uitvoer: tekst (128.000 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
grok-code-fast-1 |
chat-completion |
-
Invoer: tekst (256.000 tokens) - Uitvoer: tekst (8.192 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) |
grok-3 |
chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
grok-3-mini |
chat-completion |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
- Algemene standaard (alle regio's) - Gegevenszonestandaard (VS) |
Zie de xAI-modelverzameling in de Foundry portal.
Beschikbaarheid van modelregio's per implementatietype
Foundry Models biedt u keuzes voor de hostingstructuur die past bij uw bedrijf en gebruikspatronen. De service biedt twee hoofdtypen van implementatie:
- Standaard: heeft een globale implementatieoptie, verkeer globaal routeren om een hogere doorvoer te bieden.
- Ingericht: heeft ook een globale implementatieoptie, waarmee u ingerichte doorvoereenheden kunt aanschaffen en implementeren in de wereldwijde Infrastructuur van Azure.
Alle implementaties voeren dezelfde deductiebewerkingen uit, maar de facturering, schaal en prestaties verschillen. Zie Implementatietypen in Foundry-modellen voor meer informatie over implementatietypen.
Wereldwijde beschikbaarheid van standard-modellen
| Region | DeepSeek-R1-0528 | DeepSeek-R1 | DeepSeek-V3-0324 | DeepSeek-V3.1 | FLUX.1-Kontext-pro | FLUX-1.1-pro | grok-4 | grok-4-fast-reasoning | grok-4-fast-non-reasoning | grok-code-fast-1 | grok-3 | grok-3-mini | Llama-4-Maverick-17B-128E-Instruct-FP8 | Llama-3.3-70B-Instruct | MAI-DS-R1 | mistral-document-ai-2505 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| AustraliΓ« Oost | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| BraziliΓ« Zuid | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Oost-Canada | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Eastus | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| eastus2 | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| francecentral | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Centraalwest-Duitsland | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Noord-ItaliΓ« | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| JapanOost | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Korea-Centraal | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| northcentralus | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| NoorwegenOost | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Polencentral | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Zuid-Afrika Noord | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| southcentralus | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Zuid-India | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| spaincentral | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| swedencentral | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| Zwitserland Noord | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| switzerlandwest | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| uaenorth | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| UKSouth | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| West-Europa | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| westus | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
| westus3 | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β | β |
Geopende en aangepaste modellen
De modelcatalogus biedt een grotere selectie modellen van een breder scala aan providers. Voor deze modellen kunt u de optie voor standaardimplementatie in Microsoft Foundry-resources niet gebruiken, waarbij modellen worden geleverd als API's. Als u deze modellen wilt implementeren, moet u deze mogelijk hosten in uw infrastructuur, een AI-hub maken en het onderliggende rekenquotum opgeven om de modellen te hosten.
Bovendien kunnen deze modellen open-access of IP-beschermd zijn. In beide gevallen moet u ze implementeren in beheerde rekenaanbiedingen in Foundry. Zie Instructies: Implementeren naar beheerde rekenkracht om aan de slag te gaan.