Delen via


Een Azure OpenAI-API importeren

VAN TOEPASSING VOOR: Alle API Management-lagen

U kunt AI-modeleindpunten importeren die zijn geïmplementeerd in Azure OpenAI in Foundry-modellen naar uw API Management-exemplaar als EEN REST API. Gebruik AI-gatewaybeleid en andere mogelijkheden in API Management om integratie te vereenvoudigen, waarneembaarheid te verbeteren en de controle over de modeleindpunten te verbeteren.

In dit artikel worden twee opties beschreven voor het importeren van een Azure OpenAI-API in een Azure API Management-exemplaar als een REST API:

Meer informatie over het beheren van LLM-API's in API Management:

Vereisten

  • Een bestaand API Management-exemplaar. Maak er een als u dat nog niet hebt gedaan.

  • (Voor importeren uit Microsoft Foundry) Een Microsoft Foundry-project met een Azure OpenAI-model dat is geïmplementeerd. Zie voor meer informatie over modelimplementatie in Azure OpenAI de handleiding voor resource-implementatie.

    Noteer de id (naam) van de implementatie. U hebt deze nodig wanneer u de geïmporteerde API in API Management test.

  • Machtigingen voor het verlenen van toegang tot de Azure OpenAI-resource vanuit het API Management-exemplaar.

Optie 1. OpenAI-API importeren uit Microsoft Foundry

U kunt een Azure OpenAI-modelimplementatie rechtstreeks vanuit Microsoft Foundry importeren in API Management. Zie Een Microsoft Foundry-API importeren voor meer informatie.

Wanneer u de API importeert:

  • Geef de Microsoft Foundry-service op die als host fungeert voor de implementatie van het Azure OpenAI-model.
  • Geef de compatibiliteitsoptie van de Azure OpenAI-client op. Met deze optie configureert u de API Management-API met een /openai eindpunt.

Optie 2. Een OpenAPI-specificatie toevoegen aan API Management

U kunt ook handmatig de OpenAPI-specificatie voor de Azure OpenAI REST API downloaden en deze als openAPI-API toevoegen aan API Management.

De OpenAPI-specificatie downloaden

Download de OpenAPI-specificatie voor de Azure OpenAI REST API, zoals de GA-versie 2024-10-21.

  1. Open in een teksteditor het specificatiebestand dat u hebt gedownload.

  2. Vervang in het servers-element in de specificatie de naam van uw Azure OpenAI-eindpunt in de tijdelijke aanduidingswaarden van de url- en default-eindpunten. Als uw Azure OpenAI-eindpunt bijvoorbeeld is contoso.openai.azure.com, werkt u het servers element bij met de volgende waarden:

    • URL: https://contoso.openai.azure.com/openai
    • standaardeindpunt : contoso.openai.azure.com
    [...]
    "servers": [
        {
          "url": "https://contoso.openai.azure.com/openai",
          "variables": {
            "endpoint": {
              "default": "contoso.openai.azure.com"
            }
          }
        }
      ],
    [...]
    
  3. Noteer de waarde van de API version in de specificatie. U hebt deze nodig om de API te testen. Voorbeeld: 2024-10-21.

OpenAPI-specificatie toevoegen aan API Management

  1. Ga in Azure Portal naar uw API Management-exemplaar.
  2. Selecteer in het linkermenu API's>+ API toevoegen.
  3. Selecteer OpenAPI onder Een nieuwe API definiëren. Voer een weergavenaam en naam in voor de API.
  4. Voer een API-URL-achtervoegsel in dat eindigt met /openai om toegang te krijgen tot de Azure OpenAI API-eindpunten in uw API Management-instantie. Voorbeeld: my-openai-api/openai.
  5. Selecteer Aanmaken.

API Management importeert de API en geeft bewerkingen weer uit de OpenAPI-specificatie.

Verificatie configureren voor Azure OpenAI-API

Als u zich wilt verifiëren bij de Azure OpenAI-API, geeft u een API-sleutel op of gebruikt u een beheerde identiteit. Als u de Azure OpenAI-API rechtstreeks vanuit Microsoft Foundry hebt geïmporteerd, wordt verificatie met behulp van de beheerde identiteit van het API Management-exemplaar automatisch geconfigureerd.

Als u de Azure OpenAI-API hebt toegevoegd vanuit de OpenAPI-specificatie, moet u verificatie configureren. Zie Verifiëren en autoriseren voor LLM-API's voor meer informatie over het configureren van verificatie met behulp van API Management-beleid.

De Azure OpenAI-API testen

Als u wilt controleren of uw Azure OpenAI-API werkt zoals verwacht, test u deze in de API Management-testconsole. U moet een modelimplementatie-id (naam) opgeven die u hebt geconfigureerd in de Microsoft Foundry-projectresource en de API-versie om de API te testen.

  1. Selecteer de API die u in de vorige stap hebt gemaakt.

  2. Selecteer het tabblad Testen.

  3. Selecteer een bewerking die compatibel is met het model dat u hebt geïmplementeerd in de Azure OpenAI-resource. Op de pagina worden velden voor parameters en headers weergegeven.

  4. Voer in sjabloonparameters de volgende waarden in:

    • deployment-id - de id van een Azure OpenAI-modelimplementatie in Microsoft Foundry
    • api-version - een geldige Azure OpenAI API-versie, zoals de API-versie die u hebt geselecteerd toen u de API hebt geïmporteerd. Schermopname van het testen van een Azure OpenAI-API in de portal.
  5. Voer indien nodig andere parameters en headers in. Afhankelijk van de bewerking en het model moet u mogelijk een aanvraagbody configureren of bijwerken. Bijvoorbeeld, hier is een basisinhoud van het verzoek voor een chatvoltooiingsbewerking:

    {
      "model": "any",
      "messages": [
        {
          "role": "user",
          "content": "Help me plan a vacation trip to Paris."
        }
      ],
      "max_tokens": 100
    }
    

    Notitie

    In de testconsole voegt API Management automatisch een Ocp-Apim-Subscription-Key-header toe en stelt de abonnementssleutel in voor het ingebouwde abonnement voor alle toegang. Deze sleutel biedt toegang tot elke API in het API Management-exemplaar. Als u desgewenst de header Ocp-Apim-Subscription-Key wilt weergeven, selecteert u het pictogram 'oog' naast de HTTP-aanvraag.

  6. Kies Verzenden.

    Wanneer de test is geslaagd, reageert de back-end met een geslaagde HTTP-antwoordcode en enkele gegevens. Het antwoord bevat gebruiksgegevens voor tokens om u te helpen bij het bewaken en beheren van uw Azure OpenAI API-tokenverbruik.

    Schermopname van tokengebruiksgegevens in API-antwoord in de portal.