Compartir a través de


Importación de una API de Azure OpenAI

SE APLICA A: todos los niveles de API Management

Puede importar los puntos de conexión del modelo de IA implementados en Azure OpenAI en Foundry Models a la instancia de API Management como API REST. Use directivas de puerta de enlace de IA y otras funcionalidades de API Management para simplificar la integración, mejorar la observabilidad y mejorar el control sobre los puntos de conexión del modelo.

En este artículo se muestran dos opciones para importar una API de Azure OpenAI en una instancia de Azure API Management como UNA API REST:

Obtenga más información sobre cómo administrar las API de LLM en API Management:

Requisitos previos

  • Una instancia existente de API Management. Créelo si aún no lo ha hecho.

  • (Para la importación desde Microsoft Foundry) Un proyecto de Microsoft Foundry con un modelo de Azure OpenAI implementado. Para más información sobre la implementación de modelos en Azure OpenAI, consulte la guía de implementación de recursos.

    Anote el identificador (nombre) de la implementación. Lo necesita al probar la API importada en API Management.

  • Permisos para conceder acceso al recurso de Azure OpenAI desde la instancia de API Management.

Opción 1. Importación de openAI API desde Microsoft Foundry

Puede importar una implementación de modelos de Azure OpenAI directamente desde Microsoft Foundry a API Management. Para obtener más información, consulte Importación de una API de Microsoft Foundry.

Al importar la API:

  • Especifique el servicio Microsoft Foundry que hospeda la implementación del modelo de Azure OpenAI.
  • Especifique la opción de compatibilidad del cliente de Azure OpenAI . Esta opción configura la API de API Management con un punto de conexión /openai.

Opción 2. Adición de una especificación de OpenAPI a API Management

Como alternativa, descargue manualmente la especificación de OpenAPI para la API de REST de Azure OpenAI y agréguela a API Management como una API de OpenAPI.

Descargar la especificación de OpenAPI

Descargue la especificación de OpenAPI para la API REST de Azure OpenAI, como la versión de disponibilidad general 2024-10-21.

  1. En un editor de texto, abra el archivo de especificación que descargó.

  2. En el elemento servers de la especificación, sustituya el nombre de su punto de conexión de Azure OpenAI en los marcadores de posición de los puntos de conexión url y default. Por ejemplo, si el punto de conexión de Azure OpenAI es contoso.openai.azure.com, actualice el servers elemento con los siguientes valores:

    • url: https://contoso.openai.azure.com/openai
    • punto de conexión predeterminado: contoso.openai.azure.com
    [...]
    "servers": [
        {
          "url": "https://contoso.openai.azure.com/openai",
          "variables": {
            "endpoint": {
              "default": "contoso.openai.azure.com"
            }
          }
        }
      ],
    [...]
    
  3. Anote el valor de la API version en la especificación. Lo necesita para probar la API. Ejemplo: 2024-10-21.

Agregar la especificación de OpenAPI a API Management

  1. En Azure Portal, vaya a la instancia de API Management.
  2. En el menú izquierdo, seleccione API>+Agregar API.
  3. En Definir una nueva API, seleccione OpenAPI. Escriba un Nombre para mostrar y un Nombre para la API.
  4. Escriba un sufijo de dirección URL de API que termine en /openai para acceder a los puntos de conexión de la Azure OpenAI API en su instancia de API Management. Por ejemplo: my-openai-api/openai.
  5. Seleccione Crear.

API Management importa la API y muestra las operaciones de la especificación openAPI.

Configuración de la autenticación en Azure OpenAI API

Para autenticarse en la API de Azure OpenAI, proporcione una clave de API o use una identidad administrada. Si importó la API de Azure OpenAI directamente desde Microsoft Foundry, la autenticación mediante la identidad administrada de la instancia de API Management se configura automáticamente.

Si ha agregado la API de Azure OpenAI desde su especificación de OpenAPI, debe configurar la autenticación. Para obtener más información sobre cómo configurar la autenticación mediante directivas de API Management, consulte Autenticación y autorización a las API de LLM.

Prueba de la API de Azure OpenAI

Para asegurarse de que la API de Azure OpenAI funciona según lo previsto, pruóbela en la consola de prueba de API Management. Debe proporcionar un identificador de implementación de modelo (nombre) que configuró en el recurso del proyecto Microsoft Foundry y la versión de la API para probar la API.

  1. Seleccione la API que creó en los pasos anteriores.

  2. Seleccione la pestaña Prueba.

  3. Seleccione una operación que sea compatible con el modelo que ha implementado en el recurso de Azure OpenAI. En la página se muestran los campos de los parámetros y los encabezados.

  4. En Parámetros de plantilla, escriba los siguientes valores:

    • deployment-id : el identificador de una implementación de modelo de Azure OpenAI en Microsoft Foundry
    • api-version: una versión válida de la API de Azure OpenAI, como la versión de API que seleccionó al importar la API. Captura de pantalla de la prueba de una API de Azure OpenAI en el portal.
  5. Escriba otros parámetros y encabezados según sea necesario. En función de la operación y el modelo, es posible que tenga que configurar o actualizar un cuerpo de solicitud. Por ejemplo, este es un cuerpo de solicitud básico para una operación de finalización de chat:

    {
      "model": "any",
      "messages": [
        {
          "role": "user",
          "content": "Help me plan a vacation trip to Paris."
        }
      ],
      "max_tokens": 100
    }
    

    Nota:

    En la consola de prueba, API Management agrega automáticamente un encabezado Ocp-Apim-Subscription-Key y establece la clave de suscripción para la suscripción de acceso completo integrada. Esta clave proporciona acceso a todas las API de la instancia de API Management. Para mostrar opcionalmente el encabezado Ocp-Apim-Subscription-Key , seleccione el icono "ojo" junto a la solicitud HTTP.

  6. Seleccione Enviar.

    Cuando la prueba se realiza correctamente, el back-end responde con un código de respuesta HTTP correcto y algunos datos. La respuesta incluye datos de uso de tokens para ayudarle a supervisar y administrar el consumo de tokens de api de Azure OpenAI.

    Captura de pantalla de los datos de uso del token en la respuesta de la API en el portal.