Partager via


Se connecter à Azure AI Services depuis des flux de travail dans Azure Logic Apps

S’applique à : Azure Logic Apps (Consommation + Standard)

Pour intégrer des services d’entreprise, des systèmes et des données à des technologies IA, vos flux de travail d’application logique peuvent se connecter à azure OpenAI et ressources Recherche Azure AI que vous utilisez pour ces scénarios d’intégration.

Ce guide fournit une vue d'ensemble et des exemples qui montrent comment utiliser les opérations du connecteur Azure OpenAI et Recherche Azure AI dans votre flux de travail.

Pourquoi utiliser Azure Logic Apps avec des services IA ?

En règle générale, la création de solutions IA implique plusieurs étapes clés et nécessite quelques blocs de développement. D’abord, vous devez disposer d’un pipeline d’ingestion dynamique et d’une interface de conversation instantanée qui peuvent communiquer avec de grands modèles de langage (LLM) et des bases de données vectorielles.

Conseil

Pour en savoir plus, vous pouvez poser ces questions à Azure Copilot :

  • Qu’est-ce qu’un pipeline d’ingestion dynamique dans l’IA ?
  • Qu’est-ce qu’une base de données vectorielle dans l’IA?

Pour rechercher Azure Copilot, dans la barre d’outils du Portail Azure, sélectionnez Copilot.

Vous pouvez assembler différents composants, non seulement pour effectuer l’ingestion des données, mais également pour fournir un back-end robuste pour l’interface de conversation instantanée. Ce système de traitement facilite la saisie des requêtes et génère des réponses fiables au cours des interactions. Toutefois, la création de code pour manager et contrôler tous ces éléments peut poser des défis, ce qui est le cas pour la plupart des solutions.

Azure Logic Apps offre une approche avec peu de code et simplifie la gestion du back-end en fournissant des connecteurs prédéfinis que vous utilisez comme blocs de développement pour simplifier le processus de back-end. Cette approche vous permet de vous concentrer sur l’approvisionnement de vos données et de vous assurer que les résultats de la recherche fournissent des informations pertinentes et actuelles. Avec ces connecteurs IA, votre workflow agit comme un moteur d’orchestration qui transfère les données entre les services IA et d’autres composants que vous souhaitez intégrer.

Pour plus d’informations, consultez les ressources suivantes :

Prérequis

  • Un compte et un abonnement Azure. Si vous n’avez pas d’abonnement Azure, inscrivez-vous pour bénéficier d’un compte Azure gratuit.

  • Les ressources Azure AI Search et Azure OpenAI à accéder et à utiliser dans votre flux de travail, y compris les informations de connexion :

  • Flux de travail d’application logique dans lequel vous souhaitez accéder à vos ressources Azure OpenAI et Recherche Azure AI.

    Les connecteurs de ces services fournissent actuellement uniquement des actions, et non des déclencheurs. Avant de pouvoir ajouter une action de connecteur Azure AI, assurez-vous que votre flux de travail commence par le déclencheur approprié pour votre scénario.

Référence technique du connecteur

Les sections suivantes spécifient les articles de référence du connecteur qui décrivent les paramètres de connexion et les paramètres d’opération pour chaque connecteur. Si des opérations dans ces connecteurs affichent l’étiquette « Préversion », elles sont actuellement en préversion et soumises aux conditions d’utilisation supplémentaires pour les préversions Microsoft Azure.

Azure OpenAI

Azure OpenAI Service permet d’accéder aux modèles de langage d’OpenAI, par exemple, GPT-5, GPT-4, GPT-4 Turbo avec Vision, GPT-3.5-Turbo et la série de modèles Embeddings. Avec le connecteur Azure OpenAI, votre workflow peut se connecter à Azure OpenAI Service et obtenir des incorporations OpenAI pour vos données ou générer des complétions de conversation.

Le connecteur Azure OpenAI a différentes versions, basées sur le type d'application logique et le modèle d'hébergement:

Application logique Environnement Version du connecteur
Consommation Azure Logic Apps multilocataire Connecteur hébergé par Azure géré, qui apparaît dans la galerie de connecteurs sous le filtre partagé .

Pour plus d'informations, voir le document de référence des connecteurs gérés Azure OpenAI.
Standard Azure Logic Apps à locataire unique, App Service Environment v3 (plans Windows uniquement) ou déploiement hybride, qui est votre propre infrastructure. Connecteur intégré, qui apparaît sous le filtre Intégré dans la galerie de connecteurs et est basé sur un fournisseur de services. Le connecteur intégré dispose des fonctionnalités suivantes entre autres :

- Prise en charge de plusieurs types d'authentification

- Accès direct aux ressources dans les réseaux virtuels Azure et aux points de terminaison pour Azure OpenAI derrière les pare-feu.

Pour plus d’informations, consultez Référence du connecteur intégré Azure OpenAI.

Conseil

Pour en savoir plus, vous pouvez poser ces questions à Azure Copilot :

  • Qu’est-ce qu’une incorporation dans l’IA ?
  • Qu’est-ce qu’une complétion de conversation dans l’IA ?

Pour rechercher Azure Copilot, dans la barre d’outils du Portail Azure, sélectionnez Copilot.

Recherche Azure AI est une plateforme pour la récupération d’informations basée sur l’IA qui aide les développeurs à créer des expériences de recherche enrichies et des applications IA génératives en combinant de grands modèles de langage avec des données d’entreprise. Avec le connecteur Recherche Azure AI, votre workflow peut se connecter à Recherche Azure AI pour indexer des documents et effectuer des recherches vectorielles sur vos données.

Le connecteur Recherche Azure AI a différentes versions, basées sur le type d'application logique et le modèle d'hébergement :

Application logique Environnement Version du connecteur
Consommation Azure Logic Apps multilocataire Connecteur hébergé par Azure géré, qui apparaît dans la galerie de connecteurs sous le filtre partagé .

Pour plus d’informations, consultez Référence du connecteur managé de Recherche Azure AI.
Standard Azure Logic Apps à locataire unique, App Service Environment v3 (plans Windows uniquement) ou déploiement hybride, qui est votre propre infrastructure. Connecteur intégré, qui apparaît sous le filtre Intégré dans la galerie de connecteurs et est basé sur un fournisseur de services. Le connecteur intégré dispose des fonctionnalités suivantes entre autres :

- Prise en charge de plusieurs types d'authentification

- Accès direct aux ressources dans les réseaux virtuels Azure et aux points de terminaison pour Azure OpenAI derrière les pare-feu.

Pour plus d’informations, consultez Référence du connecteur intégré de Recherche Azure AI.

Authentification

Les connecteurs gérés par l’IA nécessitent une clé API pour l’authentification. Toutefois, les connecteurs intégrés à l’IA prennent en charge plusieurs types d’authentification pour votre point de terminaison de service IA. Ces options fournissent une authentification robuste qui répond à la plupart des besoins des clients. Les deux connecteurs intégrés peuvent également se connecter directement aux ressources Azure OpenAI et Azure AI Search à l’intérieur de réseaux virtuels ou derrière des pare-feu.

Le tableau suivant décrit les options d’authentification intégrées du connecteur, qui nécessitent que vous fournissiez l’URL du point de terminaison de service IA :

Type d'authentification Descriptif
Authentification par URL et par clé Fournissez la clé API ou l’administrateur généré par le service IA.
Active Directory OAuth (MICROSOFT Entra ID) Fournissez des informations telles que votre abonnement Entra, votre identifiant client et votre mot de passe pour vous authentifier en tant qu'utilisateur d'Entra.
Identité gérée Après avoir configuré l'authentification de l'identité managée sur votre ressource de service AI et votre ressource d'application logique, vous pouvez utiliser cette identité pour authentifier l'accès au connecteur.

Avertissement

Sécurisez et protégez toujours les données sensibles et personnelles, telles que les informations d’identification, les secrets, les clés d’accès, les chaînes de connexion, les certificats, les empreintes numériques et les informations similaires avec le niveau de sécurité le plus élevé disponible ou pris en charge.

Pour l’authentification et l’autorisation, configurez ou utilisez l’ID Microsoft Entra avec une identité managée. Cette solution offre une sécurité optimale et supérieure sans avoir à fournir et gérer manuellement les informations d’identification, les secrets, les clés d’accès, et ainsi de suite, car Azure gère l’identité managée pour vous. Pour configurer une identité managée pour Azure Logic Apps, consultez Authentifier l’accès et les connexions aux ressources Azure avec des identités managées dans Azure Logic Apps.

Si vous ne pouvez pas utiliser une identité managée, choisissez la solution de sécurité de niveau supérieur suivante disponible. Par exemple, si vous devez utiliser une chaîne de connexion, qui inclut des informations requises pour accéder à une ressource, un service ou un système, n’oubliez pas que cette chaîne inclut une clé d’accès similaire à un mot de passe racine.

Veillez à stocker ces informations en toute sécurité à l’aide de Microsoft Entra ID et Azure Key Vault. Ne codez pas ces informations en dur, partagez-les avec d’autres utilisateurs ou enregistrez en texte brut partout où d’autres utilisateurs peuvent y accéder. Configurez un plan pour actualiser ou révoquer des informations sensibles en cas de compromission. Pour plus d’informations, consultez les ressources suivantes :

Pour plus d’informations, consultez les ressources suivantes :

Ajoutez une action Azure OpenAI ou Recherche Azure AI à votre workflow

Actuellement, les connecteurs pour Azure OpenAI et Recherche Azure AI fournissent uniquement des actions, et non des déclencheurs. Vous pouvez démarrer votre flux de travail avec n’importe quel déclencheur qui correspond à votre scénario ou à vos besoins. Selon que vous disposez d’un flux de travail Consommation ou Standard, vous pouvez ensuite suivre ces étapes générales pour ajouter des actions pour Azure OpenAI, Recherche Azure AI et d’autres opérations.

Scénarios

Les scénarios suivants décrivent seulement deux des nombreuses façons dont vous pouvez utiliser les opérations de connecteur IA dans vos workflows :

Créez une base de connaissances pour vos données d’entreprise

Azure Logic Apps fournit plus de 1 400 connecteurs managés par Microsoft et des connecteurs intégrés exécutés en mode natif pour que votre workflow se connecte en toute sécurité avec presque n’importe quelle source de données, comme SharePoint, Oracle DB, Salesforce, OneDrive, Dropbox, SAP, IBM, etc. Chaque connecteur fournit des opérations, qui incluent des déclencheurs, des actions ou les deux, à utiliser dans votre workflow.

Par exemple, vous pouvez choisir parmi de nombreux types de déclencheurs pour que votre workflow automatisé s’exécute selon une planification ou en fonction d’événements spécifiques, tels que le chargement de nouveaux documents sur un site SharePoint. Avec autant d’opérations au choix, vous pouvez créer une base de connaissances et créer facilement un pipeline d’ingestion de documents à l’aide d’incorporations vectorielles pour ces documents dans Recherche Azure AI.

Pour plus d’informations, consultez les ressources suivantes :

Générez des achèvements

Un workflow Azure Logic Apps peut accepter l’entrée, tandis que Azure OpenAI Service peut effectuer des opérations d’achèvement. Ces fonctionnalités signifient que votre workflow peut ingérer des questions en temps réel, générer des réponses sur vos données ou envoyer des réponses automatisées à l’aide de Azure OpenAI. Vous pouvez immédiatement renvoyer les réponses au client ou à un workflow d’approbation pour la vérification.

Pour plus d’informations, consultez les ressources suivantes :

Exemple de scénario avec exemple de code : ingérer des données et créer des interactions de conversation instantanée

Cet exemple de flux de travail standard montre comment utiliser les connecteurs Azure OpenAI et Recherche Azure AI pour décomposer la logique back-end pour ingérer des données et mener des conversations simples dans deux workflows clés. Pour des performances plus rapides, créez des workflows sans état qui, par défaut, n’enregistrent et ne stockent pas l’historique à chaque exécution.

Exemple de code

Créez une conversation à l’aide de données ingérées

Autres conditions préalables

  • Un flux de travail d’application logique Standard

  • Consultez les conditions requises pour l’exemple de code.

  • Les valeurs de paramètre inter-environnement suivantes sont également utilisées par les opérations de workflow dans cet exemple :

    Nom du paramètre Descriptif
    aisearch_admin_key La clé d'administration de Recherche Azure AI
    aisearch_endpoint L’URL de l’endpoint pour l’exemple Azure AI Search
    aisearch_index_name L’index à utiliser pour l’exemple Recherche Azure AI
    openapi_api_key La clé API pour Azure OpenAI
    openai_deployment_id L’ID de déploiement de l’exemple Azure OpenAI
    openai_endpoint L’URL du point de terminaison de l’exemple Azure OpenAI
    tokenize_function_url L’URL d’une fonction Azure personnalisée qui traite par lots et tokenise des données, requise pour que Azure OpenAI crée correctement des incorporations pour cet exemple.

    Pour plus d’informations sur cette fonction, consultez l’exemple de code pour « Créez une conversation à l’aide de données ingérées ».

Vidéo : découvrez comment créer des applications IA à l’aide d’applications logiques

Découvrez comment compiler des applications IA à l’aide d’applications logiques

Ingérez un workflow de données

Pour économiser du temps et de l’énergie lorsque vous générez un pipeline d’ingestion, implémentez le modèle suivant avec n’importe quelle source de données. Ce modèle encapsule tous les avantages actuellement proposés par les workflows Standard dans l’application à locataire unique Azure Logic Apps.

Chaque étape de ce modèle garantit que l’IA extrait en toute transparence toutes les informations cruciales de vos fichiers de données. S’il s’exécute en tant que workflow sans état, ce modèle offre également des performances plus rapides. Cette approche simplifie non seulement l’aspect du codage, mais garantit également que vos workflows ont des processus d’authentification, de supervision et de déploiement efficaces en place.

Capture d’écran du portail Azure, le concepteur de flux de travail Standard et les opérations de flux de travail qui implémentent la fonctionnalité d’ingestion des données.

Étape Tâche Opération sous-jacente Descriptif
1 Recherchez de nouvelles données. Quand une requête HTTP arrive Un déclencheur qui interroge ou attend que de nouvelles données arrivent, soit en fonction d’une périodicité planifiée, soit en réponse à des événements spécifiques respectivement. Un tel événement peut être un nouveau fichier chargé dans un système de stockage spécifique, tel que SharePoint, OneDrive ou Stockage Blob Azure.

Dans cet exemple, l’opération de déclenchement de la Requête attend une requête HTTP ou HTTPS envoyée à partir d’un autre point de terminaison. La requête inclut l’URL d’un nouveau document chargé.
2 Obtenez les données. HTTP Une action HTTP qui récupère le document chargé à l’aide de l’URL du fichier de sortie du déclencheur.
3 Composez les détails du document. Composer Une action Opérations de données qui concatène différents éléments.

Cet exemple concatène des informations clé-valeur sur le document.
4 Créer une chaîne de jeton. Analyser un document Action Opérations de données qui produit une chaîne de jetons à l’aide de la sortie de l’action Composer.
5 Créer des blocs de contenu. Bloc de texte Action Opérations de données qui fractionne la chaîne de jeton, en fonction du nombre de caractères ou de jetons par bloc de contenu.
6 Convertissez des données tokenisées en JSON. Analyser JSON Une action Opérations de données qui convertit les blocs de chaînes de jetons en tableau JSON.
7 Sélectionnez des éléments de tableau JSON. Choisir Une action Opérations de données qui sélectionne plusieurs éléments dans le tableau JSON.
8 Générez les incorporations. Obtenez plusieurs incorporations Une action Azure OpenAI qui crée des incorporations pour chaque élément de tableau JSON.
9 Sélectionnez des incorporations et d’autres informations. Choisir Une action Opérations de données qui sélectionne les incorporations et d’autres informations de document.
10 Indexez les données. Indexez les documents Une action Recherche Azure AI qui indexe les données en fonction de chaque incorporation sélectionnée.

Workflow de conversation

À mesure que vos bases de données vectorielles ingèrent des données, assurez-vous qu’elles sont facilement recherchables pour qu’en cas de question d’un(e) utilisateur(-trice), le flux de travail de l’application logique standard back-end puisse traiter l’invite et générer une réponse fiable.

Le modèle suivant n’est qu’un exemple qui montre à quoi un workflow de conversation peut ressembler :

Capture d’écran du portail Azure, le concepteur de flux de travail Standard et les opérations de flux de travail qui implémentent une interaction conversationnelle.

Étape Tâche Opération sous-jacente Descriptif
1 Attendez l’invite d’entrée. Quand une requête HTTP arrive Un déclencheur qui interroge ou attend que de nouvelles données arrivent, soit en fonction d’une périodicité planifiée, soit en réponse à des événements spécifiques respectivement.

Dans cet exemple, le déclencheur Requête attend et capture la question du client.
2 Message système d’entrée pour le modèle. Composer Une action Opérations de données qui fournit une entrée pour entraîner le modèle.
3 Exemples de questions et réponses d’entrée. Composer Une action Opérations de données qui fournit des exemples de questions client et des rôles associés pour entraîner le modèle.
4 Message système d’entrée pour la requête de recherche. Composer Une action Opérations de données qui fournit une requête de recherche pour entraîner le modèle.
5 Générez une requête de recherche. Exécuter du code JavaScript Une action Code inclus qui utilise JavaScript pour créer une requête de recherche pour le magasin de vecteurs, en fonction des sorties des actions Composer précédentes.
6 Convertissez la requête en incorporation. Obtenez des complétions de conversation Une action Azure OpenAI qui se connecte à l’API d’achèvement de conversation, ce qui garantit des réponses fiables dans les conversations.

Dans cet exemple, l’action accepte les requêtes de recherche et les rôles comme entrée dans le modèle et retourne des incorporations vectorielles en tant que sortie.
7 Obtenez une incorporation. Obtenez une incorporation Une action Azure OpenAI qui obtient un seul vecteur d'embedding.
8 Recherchez la base de données vectorielle. Vecteurs de recherche Une action Recherche Azure AI qui exécute des recherches dans le magasin vectoriel.
9 Créez une invite. Exécuter du code JavaScript Une action Code inclus qui utilise JavaScript pour générer des invites.
10 Effectuez une complétion de conversation. Obtenez des complétions de conversation Une action Azure OpenAI qui se connecte à l’API d’achèvement de conversation, ce qui garantit des réponses fiables dans les conversations.

Dans cet exemple, l’action accepte les invites et les rôles comme entrée dans le modèle et retourne des réponses générées par un modèle en tant que sortie.
11 Retournez une réponse. Réponse Une action de Requête qui retourne les résultats à l’appelant lorsque vous utilisez le déclencheur de Requête.