Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
VAN TOEPASSING VOOR: Alle API Management-lagen
U kunt AI-modeleindpunten importeren die zijn geïmplementeerd in Azure OpenAI in Foundry-modellen naar uw API Management-exemplaar als EEN REST API. Gebruik AI-gatewaybeleid en andere mogelijkheden in API Management om integratie te vereenvoudigen, waarneembaarheid te verbeteren en de controle over de modeleindpunten te verbeteren.
In dit artikel worden twee opties beschreven voor het importeren van een Azure OpenAI-API in een Azure API Management-exemplaar als een REST API:
Een Azure OpenAI-API rechtstreeks importeren vanuit een implementatie in Microsoft Foundry (aanbevolen)
Download en bewerk de OpenAPI-specificatie voor Azure OpenAI en voeg deze toe aan API Management als een OpenAPI-API.
Meer informatie over het beheren van LLM-API's in API Management:
Mogelijkheden van AI-gateways in Azure API Management
Notitie
API Management-beleid zoals azure-openai-token-limit en azure-openai-emit-token-metric ondersteunen bepaalde API-eindpunten die beschikbaar zijn via specifieke Azure OpenAI-modellen. Zie Ondersteunde Azure OpenAI-modellen voor meer informatie.
Vereisten
Een bestaand API Management-exemplaar. Maak er een als u dat nog niet hebt gedaan.
(Voor importeren uit Microsoft Foundry) Een Microsoft Foundry-project met een Azure OpenAI-model dat is geïmplementeerd. Zie voor meer informatie over modelimplementatie in Azure OpenAI de handleiding voor resource-implementatie.
Noteer de id (naam) van de implementatie. U hebt deze nodig wanneer u de geïmporteerde API in API Management test.
Machtigingen voor het verlenen van toegang tot de Azure OpenAI-resource vanuit het API Management-exemplaar.
Optie 1. OpenAI-API importeren uit Microsoft Foundry
U kunt een Azure OpenAI-modelimplementatie rechtstreeks vanuit Microsoft Foundry importeren in API Management. Zie Een Microsoft Foundry-API importeren voor meer informatie.
Wanneer u de API importeert:
- Geef de Microsoft Foundry-service op die als host fungeert voor de implementatie van het Azure OpenAI-model.
- Geef de compatibiliteitsoptie van de Azure OpenAI-client op. Met deze optie configureert u de API Management-API met een
/openaieindpunt.
Optie 2. Een OpenAPI-specificatie toevoegen aan API Management
U kunt ook handmatig de OpenAPI-specificatie voor de Azure OpenAI REST API downloaden en deze als openAPI-API toevoegen aan API Management.
De OpenAPI-specificatie downloaden
Download de OpenAPI-specificatie voor de Azure OpenAI REST API, zoals de GA-versie 2024-10-21.
Open in een teksteditor het specificatiebestand dat u hebt gedownload.
Vervang in het
servers-element in de specificatie de naam van uw Azure OpenAI-eindpunt in de tijdelijke aanduidingswaarden van deurl- endefault-eindpunten. Als uw Azure OpenAI-eindpunt bijvoorbeeld iscontoso.openai.azure.com, werkt u hetserverselement bij met de volgende waarden:-
URL:
https://contoso.openai.azure.com/openai -
standaardeindpunt :
contoso.openai.azure.com
[...] "servers": [ { "url": "https://contoso.openai.azure.com/openai", "variables": { "endpoint": { "default": "contoso.openai.azure.com" } } } ], [...]-
URL:
Noteer de waarde van de API
versionin de specificatie. U hebt deze nodig om de API te testen. Voorbeeld:2024-10-21.
OpenAPI-specificatie toevoegen aan API Management
- Ga in Azure Portal naar uw API Management-exemplaar.
- Selecteer in het linkermenu API's>+ API toevoegen.
- Selecteer OpenAPI onder Een nieuwe API definiëren. Voer een weergavenaam en naam in voor de API.
- Voer een API-URL-achtervoegsel in dat eindigt met
/openaiom toegang te krijgen tot de Azure OpenAI API-eindpunten in uw API Management-instantie. Voorbeeld:my-openai-api/openai. - Selecteer Aanmaken.
API Management importeert de API en geeft bewerkingen weer uit de OpenAPI-specificatie.
Verificatie configureren voor Azure OpenAI-API
Als u zich wilt verifiëren bij de Azure OpenAI-API, geeft u een API-sleutel op of gebruikt u een beheerde identiteit. Als u de Azure OpenAI-API rechtstreeks vanuit Microsoft Foundry hebt geïmporteerd, wordt verificatie met behulp van de beheerde identiteit van het API Management-exemplaar automatisch geconfigureerd.
Als u de Azure OpenAI-API hebt toegevoegd vanuit de OpenAPI-specificatie, moet u verificatie configureren. Zie Verifiëren en autoriseren voor LLM-API's voor meer informatie over het configureren van verificatie met behulp van API Management-beleid.
De Azure OpenAI-API testen
Als u wilt controleren of uw Azure OpenAI-API werkt zoals verwacht, test u deze in de API Management-testconsole. U moet een modelimplementatie-id (naam) opgeven die u hebt geconfigureerd in de Microsoft Foundry-projectresource en de API-versie om de API te testen.
Selecteer de API die u in de vorige stap hebt gemaakt.
Selecteer het tabblad Testen.
Selecteer een bewerking die compatibel is met het model dat u hebt geïmplementeerd in de Azure OpenAI-resource. Op de pagina worden velden voor parameters en headers weergegeven.
Voer in sjabloonparameters de volgende waarden in:
Voer indien nodig andere parameters en headers in. Afhankelijk van de bewerking en het model moet u mogelijk een aanvraagbody configureren of bijwerken. Bijvoorbeeld, hier is een basisinhoud van het verzoek voor een chatvoltooiingsbewerking:
{ "model": "any", "messages": [ { "role": "user", "content": "Help me plan a vacation trip to Paris." } ], "max_tokens": 100 }Notitie
In de testconsole voegt API Management automatisch een Ocp-Apim-Subscription-Key-header toe en stelt de abonnementssleutel in voor het ingebouwde abonnement voor alle toegang. Deze sleutel biedt toegang tot elke API in het API Management-exemplaar. Als u desgewenst de header Ocp-Apim-Subscription-Key wilt weergeven, selecteert u het pictogram 'oog' naast de HTTP-aanvraag.
Kies Verzenden.
Wanneer de test is geslaagd, reageert de back-end met een geslaagde HTTP-antwoordcode en enkele gegevens. Het antwoord bevat gebruiksgegevens voor tokens om u te helpen bij het bewaken en beheren van uw Azure OpenAI API-tokenverbruik.
Gerelateerde inhoud
- Beperkingen bij het importeren van API's
- Een OpenAPI-specificatie importeren
- Een SOAP-API importeren
- Een SOAP-API importeren en deze naar REST converteren
- Een App Service-API importeren
- Een API voor een container-app importeren
- Een WebSocket-API importeren
- Een GraphQL-API importeren
- Een GraphQL-schema importeren en veldresolvers instellen
- Een api voor een functie-app importeren
- Een API voor een logische app importeren
- Een Service Fabric-service importeren
- Een Azure AI Foundry-API importeren
- Een Azure OpenAI-API importeren
- Een LLM-API importeren
- Een OData-API importeren
- Een REST API exporteren als een MCP-server
- Een bestaande MCP-server beschikbaar maken
- Een A2A-agent-API importeren
- SAP OData-metagegevens importeren
- Een gRPC-API importeren
- Een API bewerken