Partager via


Passerelle d’API dans la Gestion des API Azure

S’APPLIQUE À : Tous les niveaux de Gestion des API

Cet article décrit les rôles et fonctionnalités du composant de passerelle Gestion des API. Il compare également les passerelles que vous pouvez déployer.

Informations connexes :

Rôle de la passerelle

La passerelle Gestion des API (également appelée plan de données ou runtime) est le composant de service chargé de faire passer les requêtes d’API par un proxy, d’appliquer des stratégies et de collecter des données de télémétrie.

Plus précisément, la passerelle :

Note

Toutes les demandes adressées à la passerelle Gestion des API, y compris celles rejetées par les configurations de stratégie, comptent vers les limites de débit configurées, les quotas et les limites de facturation si le niveau de service les applique.

Passerelles managées et auto-hébergées

Gestion des API offre à la fois des passerelles managées et auto-hébergées :

  • Géré : la passerelle managée est le composant de passerelle par défaut qu’Azure déploie pour chaque instance gestion des API de chaque niveau de service. Vous pouvez également associer une passerelle managée autonome à un espace de travail dans une instance Gestion des API dans certains niveaux de service. En utilisant la passerelle managée, tout le trafic d’API transite par Azure, quel que soit l’emplacement où les back-ends implémentant les API sont hébergées.

    Note

    Du fait des différences dans l’architecture de service sous-jacente, les passerelles fournies dans les différents niveaux de service de gestion des API présentent des différences dans les fonctionnalités. Pour plus d’informations, consultez la section Comparaison des fonctionnalités : Passerelles managées et auto-hébergées.

  • Auto-hébergé : la passerelle auto-hébergée est une version facultative en conteneur de la passerelle managée par défaut disponible dans certains niveaux de service. Cela est utile pour les scénarios hybrides et multiclouds dans lesquels il est nécessaire d’exécuter les passerelles en dehors d’Azure dans les mêmes environnements où les backends d’API sont hébergés. La passerelle auto-hébergée permet aux clients disposant d’une infrastructure informatique hybride de gérer les API hébergées localement et dans différents clouds à partir d’un seul service Gestion des API dans Azure.

    • La passerelle auto-hébergée est empaquetée sous forme de conteneur Docker basé sur Linux et est généralement déployée sur Kubernetes, y compris sur Azure Kubernetes Service et Kubernetes avec Azure Arc.

    • Chaque passerelle auto-hébergée est associée à une ressource de passerelle dans une instance de Gestion des API cloud à partir de laquelle elle reçoit des mises à jour de configuration et communique l’état.

Comparaison des fonctionnalités : Passerelles managées et auto-hébergées

Les tableaux suivants comparent les fonctionnalités disponibles dans les passerelles de gestion des API suivantes :

  • Classique : Passerelle managée disponible dans les niveaux de service Développeur, Essentiel, Standard et Premium (anciennement regroupés en tant que niveaux dédiés)
  • V2 : la passerelle gérée disponible dans les niveaux Essentiel v2, Standard v2 et Premium v2
  • Consommation : Passerelle managée disponible dans le niveau Consommation
  • Auto-hébergé : Passerelle auto-hébergée facultative disponible dans certains niveaux de service
  • Espace de travail : passerelle managée disponible dans un espace de travail dans certains niveaux de service

Note

  • Certaines fonctionnalités des passerelles managées et auto-hébergées sont prises en charge uniquement dans certains niveaux de service ou avec certains environnements de déploiement pour les passerelles auto-hébergées.
  • Pour afficher les fonctionnalités actuelles prises en charge de la passerelle auto-hébergée, veillez à mettre à jour vers la dernière version majeure de l’image de conteneur de la passerelle auto-hébergée.
  • Consultez également les limitations de la passerelle auto-hébergée.

Infrastructure

Support des fonctionnalités Classic V2 Consumption Self-hosted Workspace
Domaines personnalisés ✔️ ✔️ ✔️ ✔️
Cache intégré ✔️ ✔️ ✔️
Cache externe compatible Redis ✔️ ✔️ ✔️ ✔️
Injection sur le réseau virtuel Développeur, Premium Premium v2 ✔️1,2 ✔️
Points de terminaison privés entrants ✔️ Standard v2, Premium v2
Intégration d’un réseau virtuel sortant Standard v2, Premium v2 ✔️
Zones de disponibilité Premium Premium v2 ✔️1
Déploiement multi-régions Premium ✔️1
Certificats racines d’autorité de certification pour la validation des certificats ✔️ ✔️6 ✔️3
Certificats de domaine managé ✔️ ✔️
Paramètres TLS ✔️ ✔️ ✔️ ✔️
HTTP/2 (client vers passerelle) ✔️4 ✔️4 ✔️
HTTP/2 (passerelle vers back-end) ✔️5 ✔️5
Détection des menaces contre l’API avec Defender pour les API ✔️ ✔️

1 Dépend de la façon dont la passerelle est déployée, mais tient de la responsabilité du client.
2 La connectivité à la passerelle auto-hébergée v2 requiert une résolution DNS du nom d’hôte du point de terminaison de configuration.
3 Les certificats racines d’autorité de certification pour la passerelle auto-hébergée sont gérés séparément pour chaque passerelle.
4 Le protocole client doit être activé.
5 Configurer en utilisant la stratégie forward-request.
6 Configurer les détails des certificats d’autorité de certification pour l’authentification par certificat des backends dans les paramètres backend.

API de back-end

Support des fonctionnalités Classic V2 Consumption Self-hosted Workspace
Spécification OpenAPI ✔️ ✔️ ✔️ ✔️ ✔️
Spécification WSDL ✔️ ✔️ ✔️ ✔️ ✔️
Spécification WADL ✔️ ✔️ ✔️ ✔️ ✔️
Application logique ✔️ ✔️ ✔️ ✔️ ✔️
App Service ✔️ ✔️ ✔️ ✔️ ✔️
Application de fonction ✔️ ✔️ ✔️ ✔️ ✔️
Application de conteneur ✔️ ✔️ ✔️ ✔️ ✔️
Service Fabric Développeur, Premium
GraphQL Pass-through ✔️ ✔️ ✔️ ✔️ ✔️
GraphQL synthétique ✔️ ✔️ ✔️1 ✔️1
WebSocket Pass-through ✔️ ✔️ ✔️ ✔️
gRPC avec authentification directe ✔️
OData ✔️ ✔️ ✔️ ✔️ ✔️
Azure OpenAI dans les modèles Microsoft Foundry et les LLM ✔️ ✔️ ✔️ ✔️ ✔️
Serveur MCP de passage direct ✔️ ✔️ ✔️
Exporter l’API REST en tant que serveur MCP ✔️ ✔️ ✔️
Agent A2A ✔️
Disjoncteur dans le back-end ✔️ ✔️ ✔️ ✔️
Pool de back-end à charge équilibrée ✔️ ✔️ ✔️ ✔️ ✔️

Policies

Les passerelles managées et auto-hébergées prennent en charge toutes les stratégies disponibles dans les définitions de stratégie avec les exceptions suivantes. Consultez les informations de référence sur les stratégies pour plus d’informations sur chaque stratégie.

Support des fonctionnalités Classic V2 Consumption Self-hosted1 Workspace
Intégration de Dapr ✔️
Intégration de Service Bus (préversion) ✔️
Résolveurs GraphQL et validation GraphQL ✔️ ✔️ ✔️
Obtenir le contexte d’autorisation ✔️ ✔️ ✔️
S’authentifier avec l’identité managée ✔️ ✔️ ✔️ ✔️
Azure OpenAI et mise en cache sémantique de LLM ✔️ ✔️ ✔️
Quotas et limites de débit ✔️ ✔️ ✔️2 ✔️3 ✔️

1 Les stratégies configurées qui ne sont pas prises en charge par la passerelle auto-hébergée sont ignorées pendant l’exécution de la stratégie.
2 La limite de débit par clé, le quota par clé et les stratégies de limite de jeton IA ne sont pas disponibles dans le niveau Consommation.
3 Les nombres de limites de débit d'une passerelle auto-hébergée peuvent être configurés pour se synchroniser localement (entre les instances de passerelle sur les nœuds du cluster), par exemple, via le déploiement d'un tableau Helm pour Kubernetes ou à l’aide des modèles de déploiement du portail Azure. Toutefois, les nombres limites de débit ne se synchronisent pas avec d’autres ressources de passerelle configurées dans l’instance Gestion des API, notamment la passerelle managée dans le cloud. En savoir plus

Monitoring

Pour plus d’informations sur les options de surveillance, consultez Observabilité dans Gestion des API Azure.

Support des fonctionnalités Classic V2 Consumption Self-hosted Workspace
Analytique des API ✔️ ✔️1
Application Insights ✔️ ✔️ ✔️ ✔️2 ✔️
Journalisation via Event Hubs ✔️ ✔️ ✔️ ✔️ ✔️
Mesures dans Azure Monitor ✔️ ✔️ ✔️ ✔️
Collecteur OpenTelemetry ✔️
Journaux des demandes dans Azure Monitor et Log Analytics ✔️ ✔️ 3
Métriques et logs locaux ✔️
Suivi des requêtes ✔️ ✔️ ✔️ ✔️ ✔️

1 Les niveaux v2 prennent en charge l’analyse basée sur Azure Monitor.
2 Gateway utilise la mémoire tampon intégrée d’Azure Application Insight et ne fournit pas de garanties de remise.
3 La passerelle auto-hébergée n’envoie actuellement pas de journaux de ressources (journaux de diagnostics) à Azure Monitor. Éventuellement, vous pouvez envoyer des métriques à Azure Monitor ou configurer et conserver des journaux localement à l’emplacement où la passerelle auto-hébergée est déployée.

Authentification et autorisation

Les passerelles gérées et auto-hébergées prennent en charge toutes les options d’authentification et d’autorisation d’API disponibles, avec les exceptions suivantes.

Support des fonctionnalités Classic V2 Consumption Self-hosted Workspace
Gestionnaire d’informations d’identification ✔️ ✔️ ✔️

Débit et mise à l’échelle de la passerelle

Important

Le débit dépend de nombreux facteurs, notamment le nombre et le taux de connexions clientes simultanées, le type et le nombre de stratégies configurées, de tailles de charge utile, de performances de l’API back-end et d’autres facteurs. Le débit de passerelle auto-hébergé dépend également de la capacité de calcul (processeur et mémoire) de l’hôte où il s’exécute. Pour déterminer avec précision le débit attendu, effectuez des tests de charge de passerelle à l’aide de conditions de production anticipées.

Passerelle managée

Pour obtenir un débit de passerelle maximal estimé dans les niveaux de service Gestion des API, consultez Tarification du service Gestion des API.

Important

Utilisez les chiffres de débit uniquement pour les informations. Ne vous fiez pas à eux pour la capacité et la planification budgétaire. Pour plus d’informations, consultez Tarification du service Gestion des API.

  • Niveaux classiques

    • Mettez à l’échelle la capacité de passerelle en ajoutant et en supprimant des unités d’échelle ou en mettant à niveau le niveau de service. (La mise à l’échelle n’est pas disponible dans le niveau Développeur.)
    • Dans les niveaux Essentiel, Standard et Premium, configurez éventuellement la mise à l’échelle automatique d’Azure Monitor.
    • Dans le niveau Premium, ajoutez et distribuez éventuellement la capacité de passerelle sur plusieurs régions.
  • Niveaux v2

  • Niveau de consommation

    • Les instances de gestion des API dans le niveau Consommation sont automatiquement mises à l’échelle en fonction du trafic.

Passerelle auto-hébergée

  • Dans des environnements tels que Kubernetes, ajoutez plusieurs réplicas de passerelle pour gérer l’utilisation attendue.
  • Configurez éventuellement la mise à l’échelle automatique pour répondre aux demandes de trafic.

Passerelle d’espace de travail

Mettre à l’échelle la capacité en ajoutant et en supprimant des unités d’échelle dans la passerelle d’espace de travail.

Point de terminaison de vérification de l'intégrité de la passerelle

Dans tous les niveaux, à l'exception du niveau Consommation, Azure API Management propose un point de terminaison intégré pour le contrôle de l'intégrité de la passerelle sur le chemin /status-0123456789abcdef. Atteignez ce point de terminaison pour vérifier que la passerelle d’API est disponible et fonctionne correctement. Il ne teste pas les API back-end, seule la passerelle elle-même.

Une demande adressée au point de terminaison retourne une 200 OK réponse HTTP lorsque la passerelle est saine ; les échecs indiquent des problèmes de mise en réseau ou de passerelle.

  • Azure utilise ce point de terminaison en interne pour la surveillance continue du contrat SLA et la validation de l’intégrité de la passerelle.
  • Les clients peuvent intégrer des demandes à ce point de terminaison dans leurs propres outils et sondes de surveillance.
  • Le point de terminaison est disponible pour les passerelles managées (y compris les passerelles régionales dans les déploiements multirégions), les passerelles auto-hébergées et les passerelles d’espace de travail.

Conseil / Astuce

Lorsque vous intégrez Azure Application Insights à Gestion des API, vous pouvez éventuellement activer la surveillance de la disponibilité de la passerelle. Ce paramètre interroge régulièrement le point de terminaison de contrôle d’intégrité de la passerelle et signale les résultats sous l’onglet Disponibilité dans Application Insights.

Pour en savoir plus :