Delen via


Foundry Models die rechtstreeks worden verkocht door Azure

Opmerking

Dit document verwijst naar de Microsoft Foundry-portal (klassiek).

πŸ”„ Schakel over naar de documentatie van Microsoft Foundry (nieuw) als u de nieuwe portal gebruikt.

Opmerking

Dit document verwijst naar de Microsoft Foundry-portal (nieuw).

In dit artikel vindt u een selectie van Microsoft Foundry-modellen die rechtstreeks door Azure worden verkocht, samen met hun mogelijkheden , implementatietypen en beschikbaarheidsregio's, met uitzondering van afgeschafte en verouderde modellen. Zie Modellen die worden ondersteund door agentservice voor een lijst met Azure OpenAI-modellen die worden ondersteund door de Foundry Agent Service.

Modellen die rechtstreeks door Azure worden verkocht, omvatten alle Azure OpenAI-modellen en specifieke, geselecteerde modellen van topproviders.

Afhankelijk van het type project dat u in Microsoft Foundry gebruikt, ziet u een andere selectie modellen. Als u een Foundry-project gebruikt dat is gebouwd op een Foundry-resource, ziet u de modellen die beschikbaar zijn voor standaardimplementatie naar een Foundry-resource. Als u een hubproject gebruikt dat wordt gehost door een Foundry-hub, ziet u ook modellen die beschikbaar zijn voor implementatie voor beheerde compute- en serverloze API's. Deze modelselecties overlappen vaak omdat veel modellen ondersteuning bieden voor meerdere implementatieopties.

Foundry-modellen zijn beschikbaar voor standaardimplementatie naar een Foundry-resource.

Raadpleeg Explore Foundry Models voor meer informatie over de kenmerken van Foundry Models die direct door Azure worden verkocht.

Opmerking

Foundry Models die rechtstreeks door Azure worden verkocht, bevatten ook geselecteerde modellen van topmodelproviders, zoals:

  • Black Forest Labs: FLUX.2-pro, FLUX.1-Kontext-proFLUX-1.1-pro
  • Cohere: Cohere-command-a, embed-v-4-0, Cohere-rerank-v4.0-proCohere-rerank-v4.0-fast
  • DeepSeek: DeepSeek-V3.2, DeepSeek-V3.2-Speciale, DeepSeek-V3.1, DeepSeek-V3-0324, , DeepSeek-R1-0528DeepSeek-R1
  • Moonshot AI: Kimi-K2-Thinking
  • Meta: Llama-4-Maverick-17B-128E-Instruct-FP8, Llama-3.3-70B-Instruct
  • Microsoft: MAI-DS-R1, model-router
  • Mistral: mistral-document-ai-2505, Mistral-Large-3
  • xAI: grok-code-fast-1, grok-3, grok-3-mini, grok-4-fast-reasoning, , grok-4-fast-non-reasoninggrok-4

Als u meer wilt weten over deze modellen, gaat u naar Andere modelverzamelingen bovenaan dit artikel.

Azure OpenAI in Microsoft Foundry-modellen

Azure OpenAI wordt mogelijk gemaakt door een diverse set modellen met verschillende mogelijkheden en prijspunten. De beschikbaarheid van modellen verschilt per regio en cloud. Voor beschikbaarheid van Azure Government-modellen raadpleegt u Azure OpenAI in Azure Government.

Models Description
GPT-5.2 serie NIEUWgpt-5.2-codex, gpt-5.2, gpt-5.2-chat (preview)
GPT-5.1 serie NIEUWgpt-5.1, gpt-5.1-chat, , gpt-5.1-codexgpt-5.1-codex-mini
Sora NIEUWE sora-2
GPT-5 serie gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat
gpt-oss modellen met open gewichtsredenering
codex-mini Verfijnde versie van o4-mini.
GPT-4.1 serie gpt-4.1, gpt-4.1-mini, gpt-4.1-nano
computer-use-preview Een experimenteel model dat is getraind voor gebruik met de computergebruikstool van de Responses API.
o-serie modellen Redeneringsmodellen met geavanceerde probleemoplossing en meer focus en mogelijkheden.
GPT-4o, GPT-4o mini en GPT-4 Turbo Geschikt voor Azure OpenAI-modellen met multimodale versies, die zowel tekst als afbeeldingen als invoer kunnen accepteren.
Embeddings Een set modellen waarmee tekst kan worden omgezet in numerieke vectorvorm om de gelijkenis van tekst te vergemakkelijken.
Afbeeldingen genereren Een reeks modellen waarmee oorspronkelijke afbeeldingen uit natuurlijke taal kunnen worden gegenereerd.
Video generation Een model dat oorspronkelijke videoscènes kan genereren op basis van tekstinstructies.
Audio Een reeks modellen voor spraak naar tekst, vertaling en tekst naar spraak. GPT-4o-audiomodellen ondersteunen ofwel gespreksinteracties met lage latentie spraak-in en spraak-uit, of audiogeneratie.

GPT-5.2

Beschikbaarheid van de regio

Model Regio
gpt-5.2 Bekijk de modeltabellen.
gpt-5.2-chat Bekijk de modeltabellen.
gpt-5.2-codex Oost VS 2 & Zweden Centraal (Globale Standaard)

Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die eerder toegang tot een model met beperkte toegang hebben aangevraagd en gekregen, hoeven niet opnieuw aan te vragen omdat hun goedgekeurde abonnementen automatisch toegang krijgen wanneer het model wordt vrijgegeven.

Model-ID Description Contextvenster Max aantal uitvoertokens Trainingsgegevens (tot en met)
gpt-5.2-codex (2026-01-14) - Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden.
- Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000
gpt-5.2 (2025-12-11) - Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden.
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 Augustus 2025
gpt-5.2-chat (2025-12-11)
Voorbeeld
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
128,000

Invoer: 111.616
Uitvoer: 16.384
16,384 Augustus 2025

Waarschuwing

We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.

GPT-5.1

Beschikbaarheid van de regio

Model Regio
gpt-5.1 Bekijk de modeltabellen.
gpt-5.1-chat Bekijk de modeltabellen.
gpt-5.1-codex Bekijk de modeltabellen.
gpt-5.1-codex-mini Bekijk de modeltabellen.
gpt-5.1-codex-max Bekijk de modeltabellen.

Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die eerder toegang tot een model met beperkte toegang hebben aangevraagd en gekregen, hoeven niet opnieuw aan te vragen omdat hun goedgekeurde abonnementen automatisch toegang krijgen wanneer het model wordt vrijgegeven.

Model-ID Description Contextvenster Max aantal uitvoertokens Trainingsgegevens (tot en met)
gpt-5.1 (2025-11-13) - Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden.
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 30 september 2024
gpt-5.1-chat (2025-11-13)
Voorbeeld
- Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
128,000

Invoer: 111.616
Uitvoer: 16.384
16,384 30 september 2024
gpt-5.1-codex (2025-11-13) - Alleen antwoord-API .
- Tekst- en afbeeldingsverwerking
- Gestructureerde uitvoer.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden
- Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 30 september 2024
gpt-5.1-codex-mini (2025-11-13) - Alleen antwoord-API .
- Tekst- en afbeeldingsverwerking
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden
- Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 30 september 2024
gpt-5.1-codex-max (2025-12-04) - Alleen antwoord-API .
- Tekst- en afbeeldingsverwerking
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden
- Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 30 september 2024

Waarschuwing

We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.

Belangrijk

  • gpt-5.1 reasoning_effort is standaard ingesteld op none. Wanneer u een upgrade uitvoert van eerdere redeneringsmodellen naar gpt-5.1, moet u mogelijk uw code bijwerken om expliciet een reasoning_effort niveau door te geven als u redenering wilt uitvoeren.

  • gpt-5.1-chat voegt ingebouwde redeneringsmogelijkheden toe. Net als andere redeneringsmodellen biedt het geen ondersteuning voor parameters zoals temperature. Als u een upgrade uitvoert van het gebruik van gpt-5-chat (dat geen redeneringsmodel is) naar gpt-5.1-chat, zorg ervoor dat u aangepaste parameters zoals temperature uit uw code verwijdert, omdat deze niet worden ondersteund door redeneringsmodellen.

  • gpt-5.1-codex-max voegt ondersteuning voor instelling reasoning_effort toe aan xhigh. Redeneringsinspanningen none worden niet ondersteund met gpt-5.1-codex-max.

GPT-5

Beschikbaarheid van de regio

Model Regio
gpt-5 (2025-08-07) Bekijk de modeltabellen.
gpt-5-mini (2025-08-07) Bekijk de modeltabellen.
gpt-5-nano (2025-08-07) Bekijk de modeltabellen.
gpt-5-chat (2025-08-07) Bekijk de modeltabellen.
gpt-5-chat (2025-10-03) Bekijk de modeltabellen.
gpt-5-codex (2025-09-11) Bekijk de modeltabellen.
gpt-5-pro (2025-10-06) Bekijk de modeltabellen.

Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die eerder toegang hebben toegepast en toegang o3hebben gekregen, hoeven niet opnieuw toe te passen omdat hun goedgekeurde abonnementen automatisch toegang krijgen bij de release van het model.

Model-ID Description Contextvenster Max aantal uitvoertokens Trainingsgegevens (tot en met)
gpt-5 (2025-08-07) - Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden.
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 30 september 2024
gpt-5-mini (2025-08-07) - Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden.
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 31 mei 2024
gpt-5-nano (2025-08-07) - Redenering
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden.
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 31 mei 2024
gpt-5-chat (2025-08-07)
Voorbeeld
- Api voor voltooiing van chat.
- Antwoord-API.
- Invoer: Tekst/afbeelding
- Uitvoer: alleen tekst
128,000 16,384 30 september 2024
gpt-5-chat (2025-10-03)
Voorbeeld1
- Api voor voltooiing van chat.
- Antwoord-API.
- Invoer: Tekst/afbeelding
- Uitvoer: alleen tekst
128,000 16,384 30 september 2024
gpt-5-codex (2025-09-11) - Alleen antwoord-API .
- Invoer: Tekst/afbeelding
- Uitvoer: alleen tekst
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
- Volledig overzicht van de mogelijkheden
- Geoptimaliseerd voor Codex CLI & Codex VS Code-extensie
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 -
gpt-5-pro (2025-10-06) - Redenering
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies en hulpprogramma's
- Volledig overzicht van de mogelijkheden.
400,000

Invoer: 272.000
Uitvoer: 128.000
128,000 30 september 2024

Opmerking

1gpt-5-chat versie 2025-10-03 introduceert een aanzienlijke verbetering gericht op emotionele intelligentie en mentale gezondheid mogelijkheden. Deze upgrade integreert gespecialiseerde gegevenssets en verfijnde responsstrategieΓ«n om het vermogen van het model te verbeteren om:

  • Emotionele context nauwkeuriger begrijpen en interpreteren , waardoor genuanceerde en empathische interacties mogelijk zijn.
  • Bied ondersteunende, verantwoordelijke reacties in gesprekken met betrekking tot geestelijke gezondheid, waardoor gevoeligheid en naleving van best practices worden gewaarborgd.

Deze verbeteringen hebben tot doel GPT-5-chat meer contextbewust, mensgericht en betrouwbaar te maken in scenario's waarin emotionele toon- en welzijnsoverwegingen essentieel zijn.

Waarschuwing

We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.

gpt-oss

Beschikbaarheid van de regio

Model Regio
gpt-oss-120b Alle Azure OpenAI-regio's

Capabilities

Model-ID Description Contextvenster Max aantal uitvoertokens Trainingsgegevens (tot en met)
gpt-oss-120b (voorbeeld) - Alleen tekst in/uit tekst
- API voor voltooiing van chat
-Streaming
- Functie-aanroepen
- Gestructureerde uitvoer
-Redenering
- Beschikbaar voor implementatie1 en via beheerde rekenkracht
131,072 131,072 31 mei 2024
gpt-oss-20b (voorbeeld) - Alleen tekst in/uit tekst
- API voor voltooiing van chat
-Streaming
- Functie-aanroepen
- Gestructureerde uitvoer
-Redenering
- Beschikbaar via beheerde compute en Foundry Local
131,072 131,072 31 mei 2024

1 In tegenstelling tot andere Azure OpenAI-modellen gpt-oss-120b is een Foundry-project vereist om het model te implementeren.

Implementeren met code

az cognitiveservices account deployment create \
  --name "Foundry-project-resource" \
  --resource-group "test-rg" \
  --deployment-name "gpt-oss-120b" \
  --model-name "gpt-oss-120b" \
  --model-version "1" \
  --model-format "OpenAI-OSS" \
  --sku-capacity 10 \
  --sku-name "GlobalStandard"

GPT-4.1 serie

Beschikbaarheid van de regio

Model Regio
gpt-4.1 (2025-04-14) Bekijk de modeltabellen.
gpt-4.1-nano (2025-04-14) Bekijk de modeltabellen.
gpt-4.1-mini (2025-04-14) Bekijk de modeltabellen.

Capabilities

Belangrijk

Een bekend probleem heeft invloed op alle GPT 4.1-seriemodellen. Grote hulpprogramma- of functie-aanroepdefinities die meer dan 300.000 tokens overschrijden, leiden tot fouten, ook al is de limiet van 1 miljoen tokencontexten van de modellen niet bereikt.

De fouten kunnen variΓ«ren op basis van API-aanroep en onderliggende nettoladingkenmerken.

Hier volgen de foutberichten voor de API voor chatvoltooiingen:

  • Error code: 400 - {'error': {'message': "This model's maximum context length is 300000 tokens. However, your messages resulted in 350564 tokens (100 in the messages, 350464 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}

  • Error code: 400 - {'error': {'message': "Invalid 'tools[0].function.description': string too long. Expected a string with maximum length 1048576, but got a string with length 2778531 instead.", 'type': 'invalid_request_error', 'param': 'tools[0].function.description', 'code': 'string_above_max_length'}}

Dit is het foutbericht voor de Antwoorden-API:

  • Error code: 500 - {'error': {'message': 'The server had an error processing your request. Sorry about that! You can retry your request, or contact us through an Azure support request at: https://go.microsoft.com/fwlink/?linkid=2213926 if you keep seeing this error. (Please include the request ID d2008353-291d-428f-adc1-defb5d9fb109 in your email.)', 'type': 'server_error', 'param': None, 'code': None}}
Model-ID Description Contextvenster Maximum aantal uitvoertokens Trainingsgegevens (maximaal)
gpt-4.1 (2025-04-14) - Invoer van tekst en afbeelding
- Tekstuitvoer
- API voor voltooiing van chat
- Antwoord-API
-Streaming
- Functie-aanroepen
- Gestructureerde uitvoer (chatvoltooiingen)
- 1,047,576
- 128.000 (ingerichte beheerde implementaties)
- 300.000 (batchimplementaties)
32,768 31 mei 2024
gpt-4.1-nano (2025-04-14) - Invoer van tekst en afbeelding
- Tekstuitvoer
- API voor voltooiing van chat
- Antwoord-API
-Streaming
- Functie-aanroepen
- Gestructureerde uitvoer (chatvoltooiingen)
- 1,047,576
- 128.000 (ingerichte beheerde implementaties)
- 300.000 (batchimplementaties)
32,768 31 mei 2024
gpt-4.1-mini (2025-04-14) - Invoer van tekst en afbeelding
- Tekstuitvoer
- API voor voltooiing van chat
- Antwoord-API
-Streaming
- Functie-aanroepen
- Gestructureerde uitvoer (chatvoltooiingen)
- 1,047,576
- 128.000 (ingerichte beheerde implementaties)
- 300.000 (batchimplementaties)
32,768 31 mei 2024

computer-use-preview

Een experimenteel model dat is getraind voor gebruik met de Responses API, een hulpprogramma voor computergebruik.

Het kan worden gebruikt met bibliotheken van derden om het model toe te staan om muis- en toetsenbordinvoer te beheren, terwijl context wordt opgehaald uit schermopnamen van de huidige omgeving.

Waarschuwing

We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.

Registratie is vereist voor toegang computer-use-preview. Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die toegang hebben tot andere modellen met beperkte toegang, moeten nog steeds toegang aanvragen voor dit model.

Als u toegang wilt aanvragen, gaat u naar computer-use-preview de toepassing voor een beperkt toegangsmodel. Wanneer toegang wordt verleend, moet u een implementatie voor het model maken.

Beschikbaarheid van de regio

Model Regio
computer-use-preview Bekijk de modeltabellen.

Capabilities

Model-ID Description Contextvenster Maximum aantal uitvoertokens Trainingsgegevens (maximaal)
computer-use-preview (2025-03-11) Gespecialiseerd model voor gebruik met het Responses API-hulpprogramma voor computergebruik.

-Gereedschap
-Streaming
- Tekst (invoer/uitvoer)
- Afbeelding (invoer)
8,192 1,024 Oktober 2023

o-serie modellen

De o-serie Azure OpenAI-modellen zijn ontworpen om redenerings- en probleemoplossingstaken aan te pakken met meer focus en mogelijkheden. Deze modellen besteden meer tijd aan het verwerken en begrijpen van de aanvraag van de gebruiker, waardoor ze uitzonderlijk sterk zijn op gebieden zoals wetenschap, codering en wiskunde, vergeleken met eerdere iteraties.

Model-ID Description Maximum aantal aanvragen (tokens) Trainingsgegevens (maximaal)
codex-mini (2025-05-16) Verfijnde versie van o4-mini.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies en hulpprogramma's.
Volledig overzicht van de mogelijkheden.
Invoer: 200.000
Uitvoer: 100.000
31 mei 2024
o3-pro (2025-06-10) - Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies en hulpprogramma's.
Volledig overzicht van de mogelijkheden.
Invoer: 200.000
Uitvoer: 100.000
31 mei 2024
o4-mini (2025-04-16) - Nieuw redeneringsmodel, met verbeterde redeneringsmogelijkheden.
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies en hulpprogramma's.
Volledig overzicht van de mogelijkheden.
Invoer: 200.000
Uitvoer: 100.000
31 mei 2024
o3 (2025-04-16) - Nieuw redeneringsmodel, met verbeterde redeneringsmogelijkheden.
- Api voor voltooiing van chat.
- Antwoord-API.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies, hulpprogramma's en parallelle aanroepen van hulpprogramma's.
Volledig overzicht van de mogelijkheden.
Invoer: 200.000
Uitvoer: 100.000
31 mei 2024
o3-mini (2025-01-31) - Verbeterde redeneringsmogelijkheden.
- Gestructureerde uitvoer.
- Alleen tekstverwerking.
- Functies en hulpprogramma's.
Invoer: 200.000
Uitvoer: 100.000
Oktober 2023
o1 (2024-12-17) - Verbeterde redeneringsmogelijkheden.
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- Functies en hulpprogramma's.
Invoer: 200.000
Uitvoer: 100.000
Oktober 2023
o1-preview (2024-09-12) Oudere preview-versie. Invoer: 128.000
Uitvoer: 32.768
Oktober 2023
o1-mini (2024-09-12) Een snellere en rendabelere optie in de o1-serie, ideaal voor het coderen van taken waarvoor snelheid en lager resourceverbruik nodig zijn.
- Wereldwijde standaardimplementatie is standaard beschikbaar.
- Standaardimplementaties (regionaal) zijn momenteel alleen beschikbaar voor bepaalde klanten die toegang hebben ontvangen als onderdeel van de o1-preview versie met beperkte toegang.
Invoer: 128.000
Uitvoer: 65,536
Oktober 2023

Zie Aan de slag met redeneringsmodellen voor meer informatie over geavanceerde o-seriemodellen.

Beschikbaarheid van de regio

Model Regio
codex-mini VS - oost 2 & Zweden - centraal (Global Standard).
o3-pro VS - oost 2 & Zweden - centraal (Global Standard).
o4-mini Bekijk de modeltabellen.
o3 Bekijk de modeltabellen.
o3-mini Bekijk de modeltabellen.
o1 Bekijk de modeltabellen.
o1-preview Bekijk de modeltabellen. Dit model is alleen beschikbaar voor klanten die toegang hebben gekregen als onderdeel van de oorspronkelijke beperkte toegang.
o1-mini Bekijk de modeltabellen.

GPT-4o en GPT-4 Turbo

GPT-4o integreert tekst en afbeeldingen in één model, waardoor het meerdere gegevenstypen tegelijk kan verwerken. Deze multimodale benadering verbetert de nauwkeurigheid en reactiesnelheid in interacties tussen menselijke computers. GPT-4o komt overeen met GPT-4 Turbo in het Engels tekst- en coderingstaken en biedt superieure prestaties in niet-Engelse taaltaken en visietaken, waardoor nieuwe benchmarks voor AI-mogelijkheden worden ingesteld.

GPT-4- en GPT-4 Turbo-modellen

Deze modellen kunnen alleen worden gebruikt met de API voor chatvoltooiingen.

Zie Modelversies voor meer informatie over hoe Azure OpenAI modelversieupgrades verwerkt. Zie Werken met modellen voor meer informatie over het weergeven en configureren van de modelversie-instellingen van uw GPT-4-implementaties.

Model-ID Description Maximum aantal aanvragen (tokens) Trainingsgegevens (maximaal)
gpt-4o (2024-11-20)
GPT-4o (Omni)
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- JSON-modus.
- Parallelle functie aanroepen.
- Verbeterde nauwkeurigheid en reactiesnelheid.
- Pariteit met Engelse tekst- en coderingstaken vergeleken met GPT-4 Turbo met Vision.
- Superieure prestaties in niet-Engelse talen en bij visuele verwerkingsopdrachten.
- Verbeterde creatieve schrijfvaardigheid.
Invoer: 128.000
Uitvoer: 16.384
Oktober 2023
gpt-4o (2024-08-06)
GPT-4o (Omni)
- Gestructureerde uitvoer.
- Tekst- en afbeeldingsverwerking.
- JSON-modus.
- Parallelle functie aanroepen.
- Verbeterde nauwkeurigheid en reactiesnelheid.
- Pariteit met Engelse tekst- en coderingstaken vergeleken met GPT-4 Turbo met Vision.
- Superieure prestaties in niet-Engelse talen en bij visuele verwerkingsopdrachten.
Invoer: 128.000
Uitvoer: 16.384
Oktober 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
- Snel, goedkoop, geschikt model ideaal voor het vervangen van GPT-3.5 Turbo-modellen.
- Tekst- en afbeeldingsverwerking.
- JSON-modus.
- Parallelle functie aanroepen.
Invoer: 128.000
Uitvoer: 16.384
Oktober 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
- Tekst- en afbeeldingsverwerking.
- JSON-modus.
- Parallelle functie aanroepen.
- Verbeterde nauwkeurigheid en reactiesnelheid.
- Pariteit met Engelse tekst- en coderingstaken vergeleken met GPT-4 Turbo met Vision.
- Superieure prestaties in niet-Engelse talen en bij visuele verwerkingsopdrachten.
Invoer: 128.000
Uitvoer: 4.096
Oktober 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo met Vision
Nieuw algemeen beschikbaar model.
- Vervanging voor alle vorige GPT-4 preview-modellen (vision-preview, 1106-Preview, 0125-Preview).
- De beschikbaarheid van functies verschilt momenteel, afhankelijk van de invoermethode en het implementatietype.
Invoer: 128.000
Uitvoer: 4.096
December 2023

Waarschuwing

We raden u niet aan om preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.

Embedderingen

text-embedding-3-large is het meest recente en meest geschikte insluitmodel. U kunt geen upgrade uitvoeren tussen insluitingsmodellen. Als u wilt overstappen van gebruik text-embedding-ada-002 naar text-embedding-3-large, moet u nieuwe insluitingen genereren.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

OpenAI-rapporten die laten zien dat zowel de grote als de kleine derde generatie insluitingsmodellen betere gemiddelde prestaties van het ophalen van meerdere talen bieden met de MIRACL-benchmark . Ze onderhouden nog steeds prestaties voor Engelse taken met de MTEB-benchmark .

Evaluatiebenchmark text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
MIRACL-gemiddelde 31.4 44.0 54.9
MTEB-gemiddelde 61.0 62.3 64.6

De insluitingsmodellen van de derde generatie ondersteunen het verminderen van de grootte van het insluiten via een nieuwe dimensions parameter. Meestal zijn grotere insluitingen duurder vanuit het perspectief van rekenkracht, geheugen en opslag. Wanneer u het aantal dimensies kunt aanpassen, krijgt u meer controle over de totale kosten en prestaties. De dimensions parameter wordt niet ondersteund in alle versies van de OpenAI 1.x Python-bibliotheek. Als u wilt profiteren van deze parameter, raden we u aan om een upgrade uit te voeren naar de nieuwste versie: pip install openai --upgrade.

De MTEB-benchmarktests van OpenAI hebben vastgesteld dat zelfs wanneer de afmetingen van het derde generatiemodel worden verlaagd tot minder dan de 1536 dimensies van text-embeddings-ada-002, de prestaties iets beter blijven.

Modellen voor het genereren van afbeeldingen

De modellen voor het genereren van afbeeldingen genereren afbeeldingen op basis van tekstprompts die de gebruiker biedt. GPT-image-1-seriemodellen zijn in beperkte previewtoegang. DALL-E 3 is algemeen beschikbaar voor gebruik met de REST API's. DALL-E 2 en DALL-E 3 met client-SDK's zijn in preview.

Registratie is vereist voor toegang tot gpt-image-1, gpt-image-1-mini of gpt-image-1.5. Toegang wordt verleend op basis van de geschiktheidscriteria van Microsoft. Klanten die toegang hebben tot andere modellen met beperkte toegang, moeten nog steeds toegang aanvragen voor dit model.

Als u toegang wilt aanvragen, vult u een aanvraagformulier in: Aanvragen voor GPT-image-1-toegang; Aanvragen voor GPT-image-1.5-toegang. Wanneer toegang wordt verleend, moet u een implementatie voor het model maken.

Beschikbaarheid van de regio

Model Regio
dall-e-3 East US
Australia East
Zweden - centraal
gpt-image-1 West VS 3 (Global Standard)
Oost VS 2 (Global Standard)
UAE - noord (Global Standard)
Centraal Polen (Global Standard)
Zweden - centraal (Global Standard)
gpt-image-1-mini West VS 3 (Global Standard)
Oost VS 2 (Global Standard)
UAE - noord (Global Standard)
Centraal Polen (Global Standard)
Zweden - centraal (Global Standard)
gpt-image-1.5 West VS 3 (Global Standard)
Oost VS 2 (Global Standard)
UAE - noord (Global Standard)
Centraal Polen (Global Standard)
Zweden - centraal (Global Standard)

Modellen voor het genereren van video's

Sora is een AI-model van OpenAI dat realistische en fantasierijke videoscènes kan maken op basis van tekstinstructies. Sora is in de previewfase.

Beschikbaarheid van de regio

Model Regio
sora VS - oost 2 (Global Standard)
Zweden - centraal (Global Standard)
sora-2 VS - oost 2 (Global Standard)
Zweden - centraal (Global Standard)

Audiomodellen

Audiomodellen in Azure OpenAI zijn beschikbaar via de realtime, completionsen audio API's.

GPT-4o-audiomodellen

De GPT-4o-audiomodellen maken deel uit van de GPT-4o-modelfamilie en ondersteunen ofwel lage latentie, spraak in, gespreksinteracties of audiogeneratie.

Waarschuwing

We raden u niet aan preview-modellen in productie te gebruiken. Alle implementaties van preview-modellen worden bijgewerkt naar toekomstige preview-versies of naar de nieuwste stabiele, algemeen beschikbare versie. Modellen die zijn aangewezen preview volgen niet de standaardlevenscyclus van het Azure OpenAI-model.

Details over maximum aantal aanvraagtokens en trainingsgegevens zijn beschikbaar in de volgende tabel:

Model-ID Description Maximum aantal aanvragen (tokens) Trainingsgegevens (maximaal)
gpt-4o-mini-audio-preview (2024-12-17)
GPT-4o audio
Audiomodel voor het genereren van audio en tekst. Invoer: 128.000
Uitvoer: 16.384
September 2023
gpt-4o-audio-preview (2024-12-17)
GPT-4o audio
Audiomodel voor het genereren van audio en tekst. Invoer: 128.000
Uitvoer: 16.384
September 2023
gpt-4o-realtime-preview (2025-06-03)
GPT-4o audio
Audiomodel voor realtime audioverwerking. Invoer: 128.000
Uitvoer: 4.096
Oktober 2023
gpt-4o-realtime-preview (2024-12-17)
GPT-4o audio
Audiomodel voor realtime audioverwerking. Invoer: 128.000
Uitvoer: 4.096
Oktober 2023
gpt-4o-mini-realtime-preview (2024-12-17)
GPT-4o audio
Audiomodel voor realtime audioverwerking. Invoer: 128.000
Uitvoer: 4.096
Oktober 2023
gpt-realtime (2025-08-28) (GA)
gpt-realtime-mini (2025-10-06)
gpt-realtime-mini-2025-12-15 (2025-12-15)
gpt-audio(28-08-2025)
gpt-audio-mini(2025-10-06)
Audiomodel voor realtime audioverwerking. Invoer: 28.672
Uitvoer: 4.096
Oktober 2023

Als u de beschikbaarheid van GPT-4o-audiomodellen in alle regio's wilt vergelijken, raadpleegt u de tabel modellen.

Audio-API

De audiomodellen via de /audio API kunnen worden gebruikt voor spraak naar tekst, vertaling en tekst naar spraak.

Spraak-naar-tekstmodellen

Model-ID Description Maximale aanvraag (bestandsgrootte van audio)
whisper Spraakherkenningsmodel voor algemeen gebruik. 25 MB
gpt-4o-transcribe Spraak-naar-tekstmodel mogelijk gemaakt door GPT-4o. 25 MB
gpt-4o-mini-transcribe Spraak-naar-tekstmodel mogelijk gemaakt door GPT-4o mini. 25 MB
gpt-4o-transcribe-diarize Spraak-naar-tekstmodel met automatische spraakherkenning. 25 MB
gpt-4o-mini-transcribe-2025-12-15 Spraak-naar-tekstmodel met automatische spraakherkenning. Verbeterde transcriptienauwkeurigheid en robuustheid. 25 MB

Spraakomzettingsmodellen

Model-ID Description Maximale aanvraag (bestandsgrootte van audio)
whisper Spraakherkenningsmodel voor algemeen gebruik. 25 MB

Tekst-naar-spraak-modellen (preview)

Model-ID Description
tts Tekst-naar-spraak-model geoptimaliseerd voor snelheid.
tts-hd Tekst-naar-spraak-model geoptimaliseerd voor kwaliteit.
gpt-4o-mini-tts Tekst-naar-spraak model mogelijk gemaakt door GPT-4o mini.

U kunt de stem begeleiden om te spreken in een specifieke stijl of toon.
gpt-4o-mini-tts-2025-12-15 Tekst-naar-spraak model mogelijk gemaakt door GPT-4o mini.

U kunt de stem begeleiden om te spreken in een specifieke stijl of toon.

Overzichtstabel van het model en beschikbaarheid per regio

Modellen op implementatietype

Azure OpenAI biedt klanten keuzes in de hostingstructuur die past bij hun bedrijfs- en gebruikspatronen. De service biedt twee hoofdtypen van implementatie:

  • Standaard: heeft een globale implementatieoptie, verkeer globaal routeren om een hogere doorvoer te bieden.
  • Ingericht: heeft ook een globale implementatieoptie, zodat klanten ingerichte doorvoereenheden kunnen aanschaffen en implementeren in de wereldwijde Infrastructuur van Azure.

Alle implementaties kunnen exact dezelfde deductiebewerkingen uitvoeren, maar de facturering, schaal en prestaties verschillen aanzienlijk. Zie onze handleiding voor implementatietypen van Azure OpenAI voor meer informatie over Azure OpenAI-implementatietypen.

Wereldwijde beschikbaarheid van standard-modellen

Region gpt-5.2-codex, 2026-01-14 gpt-5.2, 2025-12-11 gpt-5.2-chat, 2025-12-11 gpt-5.1-codex-max, 2025-12-04 gpt-5.1, 2025-11-13 gpt-5.1-chat, 2025-11-13 gpt-5.1-codex, 2025-11-13 gpt-5.1-codex-mini, 2025-11-13 gpt-5-pro, 2025-10-06 gpt-5-codex, 2025-09-15 gpt-5, 2025-08-07 gpt-5-mini, 2025-08-07 gpt-5-nano, 2025-08-07 gpt-5-chat, 2025-08-07 gpt-5-chat, 2025-10-03 o3-pro, 2025-06-10 codex-mini, 2025-05-16 sora, 2025-05-02 model-router, 2025-08-07 model-router, 2025-05-19 model-router, 2025-11-18 o3, 2025-04-16 o4-mini, 2025-04-16 gpt-image-1, 2025-04-15 gpt-4.1, 2025-04-14 gpt-4.1-nano, 2025-04-14 gpt-4.1-mini, 2025-04-14 voorbeeld-voor-computergebruik, 2025-03-11 o3-mini, 2025-01-31 o1, 2024-12-17 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o, 2024-11-20 gpt-4o-mini, 2024-07-18 tekst insluiten-3-klein, 1 tekst-insluiten-3-groot, 1 text-embedding-ada-002, 2 gpt-4o-realtime-preview, 2024-12-17 gpt-4o-audio-preview, 2024-12-17 gpt-4o-mini-realtime-preview, 2024-12-17 gpt-4o-mini-audio-preview, 2024-12-17 gpt-4o-transcribe, 2025-03-20 gpt-4o-mini-tts, 2025-12-15 gpt-4o-mini-tts, 2025-03-20 gpt-4o-mini-transcribe, 2025-12-15 gpt-4o-mini-transcribe, 2025-03-20 gpt-image-1-mini, 2025-10-06 gpt-audio-mini, 2025-10-06 gpt-audio-mini, 2025-12-15 gpt-image-1.5, 2025-12-16 sora-2, 2025-10-06 gpt-realtime-mini, 2025-10-06 gpt-realtime-mini, 2025-12-15 o3-deep-research, 2025-06-26 gpt-realtime, 2025-08-28 gpt-audio, 2025-08-28 gpt-4o-transcribe-diarize, 2025-10-15
AustraliΓ« Oost - - - - βœ… βœ… βœ… βœ… - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
BraziliΓ« Zuid - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
Canada-Centraal - - - - - - - - - - - - - - - - - - - - - - - - βœ… βœ… βœ… - - - - βœ… - βœ… - - - - - - - - - - - - - - - - - - - - - - -
Oost-Canada - - - - βœ… βœ… βœ… βœ… - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
centralus - - - - - - - - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - βœ… βœ… - - βœ… βœ… - βœ… βœ… -
Eastus - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - βœ… - - - - - - - - - - - - - - - -
eastus2 βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - βœ… βœ… βœ…
francecentral - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
Centraalwest-Duitsland - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
Noord-ItaliΓ« - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
JapanOost - - - - βœ… βœ… βœ… βœ… - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
Korea-Centraal - - - - βœ… βœ… βœ… βœ… - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
northcentralus - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
NoorwegenOost - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - βœ… - - -
Polencentral - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… βœ… βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - βœ… - - βœ… - - - - - - -
Zuid-Afrika Noord - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
southcentralus - βœ… - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
southeastasia - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - - - - βœ… - βœ… - - - - - - - - - - - - - - - - - - - - - - -
Zuid-India - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
spaincentral - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
swedencentral βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - βœ… - - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - βœ… βœ… βœ…
Zwitserland Noord - - - - βœ… βœ… βœ… βœ… - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
switzerlandwest - - - - - - - - - - - - - - - - - - - - - - - - βœ… βœ… βœ… - - - - βœ… - βœ… - - - - - - - - - - - - - - - - - - - - - - -
uaenorth - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… βœ… βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - βœ… - - βœ… - - - - - - -
UKSouth - - - - βœ… βœ… βœ… βœ… - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
West-Europa - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - - - - -
westus - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… - βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - - - - - - - - βœ… - - -
westus3 - - - - - - - - - - βœ… βœ… βœ… - - - - - - - - βœ… βœ… βœ… βœ… βœ… βœ… - βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… - - - - - - - - - βœ… - - βœ… - - - - - - -

Opmerking

o3-deep-research is momenteel alleen beschikbaar met Foundry Agent Service. Meer weten? Zie de Deep Research-tool richtlijnen.

Deze tabel bevat geen gedetailleerde regionale beschikbaarheidsgegevens. Raadpleeg de fijnafstemmingssectie voor deze informatie.

Embeddingsmodellen

Deze modellen kunnen alleen worden gebruikt met API-aanvragen voor insluiten.

Opmerking

text-embedding-3-large is het meest recente en meest geschikte insluitmodel. U kunt geen upgrade uitvoeren tussen het insluiten van modellen. Als u wilt migreren van gebruik text-embedding-ada-002 naar text-embedding-3-large, moet u nieuwe insluitingen genereren.

Model-ID Maximum aantal aanvragen (tokens) Uitvoerdimensies Trainingsgegevens (maximaal)
text-embedding-ada-002 (versie 2) 8,192 1,536 Sep 2021
text-embedding-ada-002 (versie 1) 2,046 1,536 Sep 2021
text-embedding-3-large 8,192 3,072 Sep 2021
text-embedding-3-small 8,192 1,536 Sep 2021

Opmerking

Wanneer u een matrix met invoer verzendt voor insluiten, is het maximum aantal invoeritems in de matrix per aanroep naar het eindpunt voor insluiten 2048.

Modellen voor het genereren van afbeeldingen

Model-ID Maximum aantal aanvragen (tekens)
gpt-image-1 4,000
gpt-image-1-mini 4,000
gpt-image-1.5 4,000
dall-e-3 4,000

Modellen voor het genereren van video's

Model-ID Maximum aantal aanvragen (tekens)
sora 4,000

Modellen verfijnen

Opmerking

De ondersteunde regio's voor het afstemmen kunnen variΓ«ren als u Azure OpenAI-modellen gebruikt in een Microsoft Foundry-project versus buiten een project.

Model-ID Standaardregio's Global Developer Maximum aantal aanvragen (tokens) Trainingsgegevens (maximaal) Modality
gpt-4o-mini
(2024-07-18)
VS - noord-centraal
Zweden - centraal
βœ… βœ… Invoer: 128.000
Uitvoer: 16.384
Contextlengte van trainingsvoorbeeld: 65.536
Oktober 2023 Tekst naar tekst
gpt-4o
(2024-08-06)
Oost-VS 2
VS - noord-centraal
Zweden - centraal
βœ… βœ… Invoer: 128.000
Uitvoer: 16.384
Contextlengte van trainingsvoorbeeld: 65.536
Oktober 2023 Tekst en visie op tekst
gpt-4.1
(2025-04-14)
VS - noord-centraal
Zweden - centraal
βœ… βœ… Invoer: 128.000
Uitvoer: 16.384
Contextlengte van trainingsvoorbeeld: 65.536
Mei 2024 Tekst en visie op tekst
gpt-4.1-mini
(2025-04-14)
VS - noord-centraal
Zweden - centraal
βœ… βœ… Invoer: 128.000
Uitvoer: 16.384
Contextlengte van trainingsvoorbeeld: 65.536
Mei 2024 Tekst naar tekst
gpt-4.1-nano (2025-04-14) VS - noord-centraal
Zweden - centraal
βœ… βœ… Invoer: 128.000
Uitvoer: 16.384
Lengte van trainingsvoorbeeldcontext: 32.768
Mei 2024 Tekst naar tekst
o4-mini
(2025-04-16)
Oost-VS 2
Zweden - centraal
βœ… ❌ Invoer: 128.000
Uitvoer: 16.384
Contextlengte van trainingsvoorbeeld: 65.536
Mei 2024 Tekst naar tekst
Ministral-3B (voorvertoning)
(2411)
Niet ondersteund βœ… ❌ Invoer: 128.000
Uitvoer: Onbekend
Lengte van trainingsvoorbeeld: Onbekend
Onbekend Tekst naar tekst
Qwen-32B (voorbeeld) Niet ondersteund βœ… ❌ Invoer: 8.000
Uitvoer: 32.000
Lengte van de context van trainingsvoorbeeld: 8192
Juli 2024 Tekst naar tekst

Opmerking

Wereldwijde training biedt meer betaalbare training per token, maar biedt geen dataresidency. Het is momenteel beschikbaar voor Foundry-resources in de volgende regio's:

  • Australia East
  • BraziliΓ« Zuid
  • Canada Central
  • Canada East
  • East US
  • Oostelijke VS2
  • Centraal Frankrijk
  • West-Centraal Duitsland
  • Italy North
  • Japan - oost (geen vision-ondersteuning)
  • Korea Central
  • Noord-Centraal VS
  • Norway East
  • Polen - centraal (geen 4.1-nano-ondersteuning)
  • Zuidoost-AziΓ«
  • Zuid-Afrika - noord
  • Zuid-Centraal Verenigde Staten
  • South India
  • Spain Central
  • Zweden - centraal
  • Switzerland West
  • Switzerland North
  • UK South
  • West Europe
  • West US
  • West-US3

Assistenten (preview)

Voor assistenten hebt u een combinatie van een ondersteund model en een ondersteunde regio nodig. Voor bepaalde hulpprogramma's en mogelijkheden zijn de nieuwste modellen vereist. De volgende modellen zijn beschikbaar in de Assistants-API, SDK en Foundry. De volgende tabel is bedoeld voor de standaardimplementatie. Zie Ingerichte doorvoer voor informatie over de beschikbaarheid van ingerichte doorvoereenheden. De vermelde modellen en regio's kunnen worden gebruikt met zowel Assistenten v1 als v2. U kunt Global Standard-modellen gebruiken als ze worden ondersteund in de volgende regio's.

Regio gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Voorbeeld gpt-4, 0125-Preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
AustraliΓ« Oost - - - βœ… βœ… - - βœ… βœ… βœ… βœ… βœ…
Eastus βœ… βœ… βœ… - - βœ… βœ… - βœ… - βœ… βœ…
eastus2 βœ… βœ… βœ… - βœ… - βœ… - βœ… - βœ… βœ…
francecentral - - - βœ… βœ… - - βœ… βœ… βœ… - βœ…
JapanOost - - - - - - - - βœ… - βœ… βœ…
NoorwegenOost - - - - βœ… - - - - - - -
Zuid-India - - - - βœ… - - - - βœ… βœ… -
swedencentral βœ… βœ… βœ… βœ… βœ… - βœ… βœ… βœ… βœ… - βœ…
UKSouth - - - - βœ… βœ… - - βœ… βœ… βœ… βœ…
westus βœ… βœ… βœ… - βœ… - βœ… - - βœ… βœ… -
westus3 βœ… βœ… βœ… - βœ… - βœ… - - - βœ… -

Buitengebruikstelling van model

Raadpleeg de handleiding voor buitengebruikstelling van modellen voor de meest recente informatie over buitengebruikstelling van modellen.

Opmerking

Foundry Models die rechtstreeks door Azure worden verkocht, bevatten ook alle Azure OpenAI-modellen. Als u meer wilt weten over deze modellen, gaat u naar de verzameling Azure OpenAI-modellen bovenaan dit artikel.

Black Forest Labs-modellen die rechtstreeks door Azure worden verkocht

De BFL-verzameling (Black Forest Labs) van modellen voor het genereren van afbeeldingen bevat FLUX.2 [pro] voor het genereren en bewerken van afbeeldingen via tekst- en afbeeldingsprompts, FLUX.1 Kontext [pro] voor het genereren en bewerken van context en FLUX1.1 [pro] voor het genereren van tekst-naar-afbeelding.

U kunt deze modellen runnen via de API van de BFL-serviceprovider en via de afbeeldingen/generaties en afbeeldingen/bewerkingen-eindpunten.

Opmerking

Bekijk het GitHub-voorbeeld voor het genereren van afbeeldingen met FLUX-modellen in Microsoft Foundry en het bijbehorende notebook waarin wordt getoond hoe u afbeeldingen van hoge kwaliteit maakt op basis van tekstprompts.

Model Type & API-eindpunt Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
FLUX.2-pro Afbeeldingen genereren
- BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-2-pro
- Invoer: tekst en afbeelding (32.000 tokens en maximaal 8 afbeeldingeni)
- Uitvoer: EΓ©n afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
- Belangrijke functies: Ondersteuning voor meerdere verwijzingen voor maximaal 8 afbeeldingenii, meer gegrond in echte wereldkennis, grotere uitvoerflexibiliteit, verbeterde prestaties
- Aanvullende parameters:(alleen in providerspecifieke API) ondersteunt alle parameters.
- Algemene standaard (alle regio's) Foundry, op basis van hub
FLUX.1-Kontext-pro Afbeeldingen genereren
- Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations
en
https://<resource-name>/openai/deployments/{deployment-id}/images/edits

- BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview
- Invoer: tekst en afbeelding (5.000 tokens en 1 afbeelding)
- Uitvoer: EΓ©n afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
- Belangrijke functies: Tekenconsistentie, geavanceerd bewerken
- Aanvullende parameters:(Alleen providerspecifieke API)seed, aspect ratio, , input_image, prompt_unsampling, , safety_toleranceoutput_format
- Algemene standaard (alle regio's) Foundry, op basis van hub
FLUX-1.1-pro Afbeeldingen genereren
- Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations

- BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview
- Invoer: tekst (5.000 tokens en 1 afbeelding)
- Uitvoer: EΓ©n afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
- Belangrijke functies: Snelle deductiesnelheid, sterke naleving van prompts, concurrerende prijzen, schaalbare generatie
- Aanvullende parameters:(Alleen providerspecifieke API)width, height, , prompt_unsampling, seed, , safety_toleranceoutput_format
- Algemene standaard (alle regio's) Foundry, op basis van hub
Model Type & API-eindpunt Capabilities Implementatietype (beschikbaarheid van regio's)
FLUX.2-pro Afbeeldingen genereren
- BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-2-pro
- Invoer: tekst (32.000 tokens en maximaal 8 afbeeldingeni)
- Uitvoer: EΓ©n afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
- Belangrijke functies: Ondersteuning voor meerdere verwijzingen voor maximaal 8 afbeeldingenii, meer gegrond in echte wereldkennis, grotere uitvoerflexibiliteit, verbeterde prestaties
- Aanvullende parameters:(alleen in providerspecifieke API) ondersteunt alle parameters.
- Algemene standaard (alle regio's)
FLUX.1-Kontext-pro Afbeeldingen genereren
- Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations
en
https://<resource-name>/openai/deployments/{deployment-id}/images/edits

- BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview
- Invoer: tekst en afbeelding (5.000 tokens en 1 afbeelding)
- Uitvoer: EΓ©n afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
- Belangrijke functies: Tekenconsistentie, geavanceerd bewerken
- Aanvullende parameters:(Alleen providerspecifieke API)seed, aspect ratio, , input_image, prompt_unsampling, , safety_toleranceoutput_format
- Algemene standaard (alle regio's)
FLUX-1.1-pro Afbeeldingen genereren
- Afbeeldings-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations

- BFL-serviceprovider-API: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview
- Invoer: tekst (5.000 tokens en 1 afbeelding)
- Uitvoer: EΓ©n afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
- Belangrijke functies: Snelle deductiesnelheid, sterke naleving van prompts, concurrerende prijzen, schaalbare generatie
- Aanvullende parameters:(Alleen providerspecifieke API)width, height, , prompt_unsampling, seed, , safety_toleranceoutput_format
- Algemene standaard (alle regio's)

i,ii Ondersteuning voor meerdere referentieafbeeldingen (maximaal acht) is beschikbaar voor FLUX.2[pro] met behulp van de API, maar niet in de speeltuin. Zie de volgende codevoorbeelden voor FLUX.2[pro].

Codevoorbeelden voor FLUX.2[pro]

Afbeeldingen genereren

  • Invoer: tekst
  • Uitvoer: één afbeelding
curl -X POST https://<your-resource-name>.api.cognitive.microsoft.com/providers/blackforestlabs/v1/flux-2-pro?api-version… \ 
β€― -H "Content-Type: application/json" \ 
β€― -H "Authorization: Bearer {API_KEY}" \ 
β€― -d '{ 
    β€― "model": "FLUX.2-pro" 
β€―     "prompt": "A photograph of a red fox in an autumn forest", 
    β€― "width": 1024, 
    β€― "height": 1024, 
    β€― "seed": 42, 
    β€― "safety_tolerance": 2, 
    β€― "output_format": "jpeg", 
    }' 

Afbeelding bewerken

  • Invoer: Maximaal acht bit-64 gecodeerde afbeeldingen
  • Uitvoer: één afbeelding
curl -X POST https://<your-resource-name>.api.cognitive.microsoft.com/providers/blackforestlabs/v1/flux-2-pro?api-version… \
β€― -H "Content-Type: application/json" \ 
β€― -H "Authorization: Bearer {API_KEY}" \ 
β€― -d '{ 
β€―     "model": "FLUX.2-pro", 
β€―     "prompt": "Apply a cinematic, moody lighting effect to all photos. Make them look like scenes from a sci-fi noir film", 
β€―     "output_format": "jpeg", 
β€―     "input_image" : "/9j/4AAQSkZJRgABAQAAAQABAAD/2wBDA.......", 
β€―     "input_image_2" : "iVBORw0KGgoAAAANSUhEUgAABAAAAAQACAIAAADwf........" 
    }' 

Bekijk deze modelverzameling in de Microsoft Foundry-portal.

Cohere-modellen die rechtstreeks door Azure worden verkocht

De cohere-serie met modellen bevat verschillende modellen die zijn geoptimaliseerd voor verschillende gebruiksvoorbeelden, waaronder chatvoltooiingen, herrankering/tekstclassificatie en insluitingen. Cohere-modellen zijn geoptimaliseerd voor verschillende gebruiksvoorbeelden, waaronder redenering, samenvatting en antwoord op vragen.

Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
Cohere-rerank-v4.0-pro tekstclassificatie (opnieuw rangschikking) - Invoer: tekst
- Uitvoer: tekst
- Talen:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: JSON
- Algemene standaard (alle regio's)
- Beheerde rekenkracht
Foundry, op basis van hub
Cohere-rerank-v4.0-fast tekstclassificatie (opnieuw rangschikking) - Invoer: tekst
- Uitvoer: tekst
- Talen:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: JSON
- Algemene standaard (alle regio's)
- Beheerde rekenkracht
Foundry, op basis van hub
Cohere-command-a chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (8.182 tokens)
- Talen:en, fr, es, it, de, pt-br, ja, ko, en zh-cnar
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's) Foundry, op basis van hub
embed-v-4-0 embeddings - Invoer: tekst (512 tokens) en afbeeldingen (2MM pixels)
- Uitvoer: Vector (256, 512, 1024, 1536 dimensies)
- Talen:en, fr, es, it, de, pt-br, ja, ko, en zh-cnar
- Algemene standaard (alle regio's) Foundry, op basis van hub
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
Cohere-rerank-v4.0-pro tekstclassificatie (opnieuw rangschikking) - Invoer: tekst
- Uitvoer: tekst
- Talen:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: JSON
- Algemene standaard (alle regio's)
- Beheerde rekenkracht
Cohere-rerank-v4.0-fast tekstclassificatie (opnieuw rangschikking) - Invoer: tekst
- Uitvoer: tekst
- Talen:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, id, nl
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: JSON
- Algemene standaard (alle regio's)
- Beheerde rekenkracht
Cohere-command-a chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (8.182 tokens)
- Talen:en, fr, es, it, de, pt-br, ja, ko, en zh-cnar
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's)
embed-v-4-0 embeddings - Invoer: tekst (512 tokens) en afbeeldingen (2MM pixels)
- Uitvoer: Vector (256, 512, 1024, 1536 dimensies)
- Talen:en, fr, es, it, de, pt-br, ja, ko, en zh-cnar
- Algemene standaard (alle regio's)

Zie de verzameling Cohere-modellen in de Foundry-portal.

DeepSeek-modellen die rechtstreeks door Azure worden verkocht

De DeepSeek-serie met modellen bevat verschillende redeneringsmodellen, die excelleren bij het redeneren van taken met behulp van een stapsgewijs trainingsproces, zoals taal, wetenschappelijke redenering en coderingstaken.

Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
DeepSeek-V3.2-Speciale chat-completion
(met redeneringsinhoud)
- Invoer: tekst (128.000 tokens)
- Uitvoer: (128.000 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's) Foundry, op basis van hub
DeepSeek-V3.2 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (128.000 tokens)
- Uitvoer: (128.000 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's) Foundry, op basis van hub
DeepSeek-V3.1 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (131.072 tokens)
- Uitvoer: (131.072 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's) Foundry, op basis van hub
DeepSeek-R1-0528 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (163.840 tokens)
- Uitvoer: (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
- Algemene standaard (alle regio's)
- Wereldwijd ingericht (alle regio's)
Foundry, op basis van hub
DeepSeek-V3-0324 chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: (131.072 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's)
- Wereldwijd ingericht (alle regio's)
Foundry, op basis van hub
DeepSeek-R1 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (163.840 tokens)
- Uitvoer: (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
- Algemene standaard (alle regio's)
- Wereldwijd ingericht (alle regio's)
Foundry, op basis van hub
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
DeepSeek-V3.2-Speciale chat-completion
(met redeneringsinhoud)
- Invoer: tekst (128.000 tokens)
- Uitvoer: (128.000 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's)
DeepSeek-V3.2 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (128.000 tokens)
- Uitvoer: (128.000 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's)
DeepSeek-V3.1 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (131.072 tokens)
- Uitvoer: (131.072 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's)
DeepSeek-R1-0528 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (163.840 tokens)
- Uitvoer: (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
- Algemene standaard (alle regio's)
- Wereldwijd ingericht (alle regio's)
DeepSeek-V3-0324 chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: (131.072 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Algemene standaard (alle regio's)
- Wereldwijd ingericht (alle regio's)
DeepSeek-R1 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (163.840 tokens)
- Uitvoer: (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
- Algemene standaard (alle regio's)
- Wereldwijd ingericht (alle regio's)

Bekijk deze modelverzameling in de Foundry-portal.

Metamodellen die rechtstreeks door Azure worden verkocht

Meta Llama-modellen en -hulpprogramma's zijn een verzameling vooraf getrainde en verfijnde AI-tekst- en afbeeldingsredenmodellen. Metamodellen variΓ«ren in schaal om het volgende op te nemen:

  • Kleine taalmodellen (SLM's) zoals 1B en 3B Base en Instruct-modellen voor inferentie op het apparaat zelf en edge-computing
  • Middelgrote grote taalmodellen (LLM's) zoals 7B, 8B en 70B Base- en Instruct-modellen
  • Krachtige modellen zoals Meta Llama 3.1-405B Instruct for synthetic data generation and distilling use cases.
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
Llama-4-Maverick-17B-128E-Instruct-FP8 chat-completion - Invoer: tekst en afbeeldingen (1M-tokens)
- Uitvoer: tekst (1M-tokens)
- Talen:ar, en, fr, de, hi, id, it, pt, es, tl, en thvi
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
- Algemene standaard (alle regio's) Foundry, op basis van hub
Llama-3.3-70B-Instruct chat-completion - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Talen:en, de, fr, it, pt, hi, en esth
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
- Algemene standaard (alle regio's) Foundry, op basis van hub
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
Llama-4-Maverick-17B-128E-Instruct-FP8 chat-completion - Invoer: tekst en afbeeldingen (1M-tokens)
- Uitvoer: tekst (1M-tokens)
- Talen:ar, en, fr, de, hi, id, it, pt, es, tl, en thvi
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
- Algemene standaard (alle regio's)
Llama-3.3-70B-Instruct chat-completion - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Talen:en, de, fr, it, pt, hi, en esth
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
- Algemene standaard (alle regio's)

Bekijk deze modelverzameling in de Foundry-portal. U kunt ook verschillende Meta-modellen vinden die beschikbaar zijn bij partners en community's.

Microsoft-modellen die rechtstreeks door Azure worden verkocht

Microsoft-modellen omvatten verschillende modelgroepen, zoals Model Router, MAI-modellen, Phi-modellen, AI-modellen voor gezondheidszorg en meer. Zie de Microsoft-modelverzameling in de Foundry-portal. U kunt ook verschillende Microsoft-modellen vinden die beschikbaar zijn bij partners en community's.

Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
model-router1 chat-completion Meer informatie in het overzicht van modelrouters.
- Invoer: tekst, afbeelding
- Uitvoer: tekst (max. uitvoertokens variΓ«ren2)
Contextvenster: 200.0003
- Talen:en
- Wereldwijde standaard (VS - oost 2, Zweden - centraal)
- Data Zone standaard4 (Oost-US 2, Centraal Zweden)
Foundry, op basis van hub
MAI-DS-R1 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (163.840 tokens)
- Uitvoer: (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
- Algemene standaard (alle regio's) Foundry, op basis van hub
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
model-router1 chat-completion Meer informatie in het overzicht van modelrouters.
- Invoer: tekst, afbeelding
- Uitvoer: tekst (max. uitvoertokens variΓ«ren2)
Contextvenster: 200.0003
- Talen:en
- Wereldwijde standaard (VS - oost 2, Zweden - centraal)
- Data Zone standaard4 (Oost-US 2, Centraal Zweden)
MAI-DS-R1 chat-completion
(met redeneringsinhoud)
- Invoer: tekst (163.840 tokens)
- Uitvoer: (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
- Algemene standaard (alle regio's)

1Routermodelversie2025-11-18. Eerdere versies (2025-08-07 en 2025-05-19) zijn ook beschikbaar.

2Max-uitvoertokens variΓ«ren voor onderliggende modellen in de modelrouter. Bijvoorbeeld 32.768 (GPT-4.1 series), 100.000 (o4-mini), 128.000 (gpt-5 reasoning models) en 16.384 (gpt-5-chat).

3 Grotere contextvensters zijn compatibel met enkele van de onderliggende modellen van de modelrouter. Dat betekent dat een API-aanroep met een grotere context alleen slaagt als de prompt naar een van deze modellen wordt doorgestuurd. Anders mislukt de aanroep.

4 Facturering voor routerimplementaties van het standaardmodel voor gegevenszones begint niet eerder dan 1 november 2025.

Mistral modellen die rechtstreeks door Azure worden verkocht

Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
Mistral-Large-3 chat-completion - Invoer: tekst, afbeelding
- Uitvoer: tekst
- Talen:en, fr, de, es, it, pt, nl, zh, ja, ko en ar
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Globale standaard (VS - west 3) Gieterij
mistral-document-ai-2505 Afbeelding naar tekst - Invoer: afbeeldings- of PDF-pagina's (30 pagina's, maximaal 30 MB PDF-bestand)
- Uitvoer: tekst
- Talen:en
- Aanroepen van hulpprogramma's: nee
- Antwoordindelingen: Tekst, JSON, Markdown
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS en EU)
Gieterij
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
Mistral-Large-3 chat-completion - Invoer: tekst, afbeelding
- Uitvoer: tekst
- Talen:en, fr, de, es, it, pt, nl, zh, ja, ko en ar
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst, JSON
- Globale standaard (VS - west 3)
mistral-document-ai-2505 Afbeelding naar tekst - Invoer: afbeeldings- of PDF-pagina's (30 pagina's, maximaal 30 MB PDF-bestand)
- Uitvoer: tekst
- Talen:en
- Aanroepen van hulpprogramma's: nee
- Antwoordindelingen: Tekst, JSON, Markdown
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS en EU)

Zie de Mistral-modelverzameling in de Foundry-portal. U kunt ook verschillende Mistral-modellen vinden die beschikbaar zijn bij partners en community's.

Moonshot AI-modellen die rechtstreeks door Azure worden verkocht

Moonshot AI-modellen omvatten Kimi K2 Thinking, de nieuwste, meest geschikte versie van opensource-denkmodel. Kimi K2 is gebouwd als een denkende agent die stapsgewijs redeneert terwijl hij hulpprogramma's dynamisch aanroept. Het zet een nieuwe norm in de nieuwste stand van de techniek op Humanity's Last Exam (HLE), BrowseComp en andere benchmarks door de redeneerdiepte van meerdere stappen drastisch te vergroten en stabiel hulmiddelengebruik te behouden over 200-300 opeenvolgende oproepen.

De belangrijkste mogelijkheden van Kimi K2 Thinking zijn:

  • Deep Thinking & Tool Orchestration: Van begin tot eind getraind om keten van gedachten redenering te combineren met functieoproepen, waardoor autonome onderzoeks-, coderings- en schrijfprocessen mogelijk zijn die honderden stappen lang zijn zonder afwijking.
  • Systeemeigen INT4 Kwantisatie: Quantization-Aware Training (QAT) wordt in de posttrainingsfase gebruikt om verliesloze 2x snelheid te bereiken in modus met lage latentie.
  • Stabiele Lange Termijn Capaciteit: Onderhoudt coherent doelgericht gedrag voor maximaal 200-300 opeenvolgende aanroepen van tools, en overtreft eerdere modellen die na 30-50 stappen afnemen.
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
Kimi-K2-Thinking chat-completion
(met redeneringsinhoud)
- Invoer: tekst (262.144 tokens)
- Uitvoer: tekst (262.144 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst
- Algemene standaard (alle regio's) Foundry, op basis van hub
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
Kimi-K2-Thinking chat-completion
(met redeneringsinhoud)
- Invoer: tekst (262.144 tokens)
- Uitvoer: tekst (262.144 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma' s: Ja
- Antwoordindelingen: Tekst
- Algemene standaard (alle regio's)

Bekijk deze modelverzameling in de Foundry-portal.

xAI-modellen die rechtstreeks door Azure worden verkocht

De Grok-modellen van xAI in Foundry Models omvatten een diverse set modellen die zijn ontworpen om te excelleren in verschillende bedrijfsdomeinen met verschillende mogelijkheden en prijspunten, waaronder:

  • Grok 3, een niet-redenerend model dat vooraf is getraind door het Kolossus-datacenter, is afgestemd op zakelijke gebruiksvoorbeelden zoals gegevensextractie, codering en samenvatting van tekst, met uitzonderlijke instructievolgmogelijkheden. Het biedt ondersteuning voor een contextvenster van 131.072 token, zodat het uitgebreide invoer kan verwerken terwijl de samenhang en diepte behouden blijft en verbindingen tussen domeinen en talen kan tekenen.

  • Grok 3 Mini is een lichtgewicht redeneringsmodel dat is getraind om agentische, coderings-, wiskundige en deep science-problemen met testtijd berekenen aan te pakken. Het biedt ook ondersteuning voor een contextvenster van 131.072 token voor inzicht in codebases en zakelijke documenten en excelt in het gebruik van hulpprogramma's om complexe logische problemen in nieuwe omgevingen op te lossen, met onbewerkte redeneringstraceringen voor gebruikersinspectie met aanpasbare denkbudgetten.

  • Grok Code Fast 1, een snel en efficiΓ«nt redeneringsmodel dat is ontworpen voor gebruik in agentische coderingstoepassingen. Het werd vooraf getraind op een op codering gericht gegevensmengsel, en vervolgens post-getraind op demonstraties van verschillende codetaken en het gebruik van hulpprogramma's, evenals demonstraties van correct weigeringsgedrag op basis van het veiligheidsbeleid van xAI. Registratie is vereist voor toegang tot het grok-code-fast-1-model.

  • Grok 4 Fast, een op efficiΓ«ntie geoptimaliseerd taalmodel dat near-Grok 4-redeneringsmogelijkheden biedt met aanzienlijk lagere latentie en kosten, en kan redenering volledig omzeilen voor ultrasnelle toepassingen. Het is getraind voor veilig en effectief gebruik van hulpprogramma's, met ingebouwd weigeringsgedrag, een vaste veiligheidsafdwinging systeemprompt en invoerfilters om misbruik te voorkomen.

  • Grok 4 is het nieuwste redeneringsmodel van xAI met geavanceerde redenerings- en toolgebruiksmogelijkheden, zodat het nieuwe geavanceerde prestaties kan bereiken in uitdagende academische en industriebenchmarks. Registratie is vereist voor toegang tot het grok-4-model. In tegenstelling tot Grok 4 Fast-modellen (redeneren en niet-redeneren), biedt Grok 4 geen ondersteuning voor afbeeldingsinvoer.

Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's) Project-type
grok-4 chat-completion - Invoer: tekst (262.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's) Foundry, op basis van hub
grok-4-fast-reasoning chat-completion - Invoer: tekst, afbeelding (128.000 tokens)
- Uitvoer: tekst (128.000 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
Foundry, op basis van hub
grok-4-fast-non-reasoning chat-completion - Invoer: tekst, afbeelding (128.000 tokens)
- Uitvoer: tekst (128.000 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
Foundry, op basis van hub
grok-code-fast-1 chat-completion - Invoer: tekst (256.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's) Foundry, op basis van hub
grok-3 chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
Foundry, op basis van hub
grok-3-mini chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
Foundry, op basis van hub
Model Typologie Capabilities Implementatietype (beschikbaarheid van regio's)
grok-4 chat-completion - Invoer: tekst (262.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
grok-4-fast-reasoning chat-completion - Invoer: tekst, afbeelding (128.000 tokens)
- Uitvoer: tekst (128.000 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
grok-4-fast-non-reasoning chat-completion - Invoer: tekst, afbeelding (128.000 tokens)
- Uitvoer: tekst (128.000 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
grok-code-fast-1 chat-completion - Invoer: tekst (256.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
grok-3 chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)
grok-3-mini chat-completion - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
- Algemene standaard (alle regio's)
- Gegevenszonestandaard (VS)

Zie de xAI-modelverzameling in de Foundry portal.

Beschikbaarheid van modelregio's per implementatietype

Foundry Models biedt u keuzes voor de hostingstructuur die past bij uw bedrijf en gebruikspatronen. De service biedt twee hoofdtypen van implementatie:

  • Standaard: heeft een globale implementatieoptie, verkeer globaal routeren om een hogere doorvoer te bieden.
  • Ingericht: heeft ook een globale implementatieoptie, waarmee u ingerichte doorvoereenheden kunt aanschaffen en implementeren in de wereldwijde Infrastructuur van Azure.

Alle implementaties voeren dezelfde deductiebewerkingen uit, maar de facturering, schaal en prestaties verschillen. Zie Implementatietypen in Foundry-modellen voor meer informatie over implementatietypen.

Wereldwijde beschikbaarheid van standard-modellen

Region DeepSeek-R1-0528 DeepSeek-R1 DeepSeek-V3-0324 DeepSeek-V3.1 FLUX.1-Kontext-pro FLUX-1.1-pro grok-4 grok-4-fast-reasoning grok-4-fast-non-reasoning grok-code-fast-1 grok-3 grok-3-mini Llama-4-Maverick-17B-128E-Instruct-FP8 Llama-3.3-70B-Instruct MAI-DS-R1 mistral-document-ai-2505
AustraliΓ« Oost βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
BraziliΓ« Zuid βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Oost-Canada βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Eastus βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
eastus2 βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
francecentral βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Centraalwest-Duitsland βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Noord-ItaliΓ« βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
JapanOost βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Korea-Centraal βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
northcentralus βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
NoorwegenOost βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Polencentral βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Zuid-Afrika Noord βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
southcentralus βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Zuid-India βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
spaincentral βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
swedencentral βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
Zwitserland Noord βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
switzerlandwest βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
uaenorth βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
UKSouth βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
West-Europa βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
westus βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…
westus3 βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ… βœ…

Geopende en aangepaste modellen

De modelcatalogus biedt een grotere selectie modellen van een breder scala aan providers. Voor deze modellen kunt u de optie voor standaardimplementatie in Microsoft Foundry-resources niet gebruiken, waarbij modellen worden geleverd als API's. Als u deze modellen wilt implementeren, moet u deze mogelijk hosten in uw infrastructuur, een AI-hub maken en het onderliggende rekenquotum opgeven om de modellen te hosten.

Bovendien kunnen deze modellen open-access of IP-beschermd zijn. In beide gevallen moet u ze implementeren in beheerde rekenaanbiedingen in Foundry. Zie Instructies: Implementeren naar beheerde rekenkracht om aan de slag te gaan.