Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
L’IA générative (GenAI) est adoptée à un rythme sans précédent, car les organisations s’engagent activement avec ou expérimentent avec GenAI dans différentes capacités. Les équipes de sécurité peuvent atténuer et gérer les risques plus efficacement en obtenant de manière proactive une visibilité sur l’utilisation de l’IA au sein de l’organisation et en implémentant des contrôles correspondants. Cet article explique comment découvrir l’utilisation de l’application IA au sein de votre organisation, notamment l’évaluation du risque pour vos données sensibles.
Il s’agit du deuxième article d’une série. Avant d’utiliser cet article, veillez à effectuer les tâches décrites dans Prepare for AI Security pour préparer votre environnement avec les fonctionnalités prescrites dans cet article.
Microsoft fournit des outils pour vous aider à obtenir une visibilité des données, de l’accès, de l’utilisateur et des risques d’application pour l’IA que vous générez et utilisez. Ces fonctionnalités vous aident à résoudre de manière proactive les vulnérabilités pendant que vous créez une posture de sécurité forte pour l’IA.
Le tableau suivant décrit l’illustration et décrit également les étapes d’implémentation de ces fonctionnalités.
| Étape | Tâche | Étendue |
|---|---|---|
| 1 | Obtenez une visibilité sur toutes les identités d’agent créées dans Microsoft Copilot Studio et Azure AI Foundry avec l’ID de Microsoft Entra Agent. | Agents créés dans Microsoft Copilot Studio et Azure AI Foundry |
| 2 | Bénéficiez d'une visibilité sur l'utilisation de l'IA, Microsoft Purview Data Security Posture Management (DSPM) pour l'IA. Appliquez des stratégies pour protéger les données sensibles. | Copilotes, agents et autres applications IA qui utilisent des modules LLM tiers, y compris les sites d’IA pris en charge. |
| 3 | Découvrir, approuver et bloquer des applications IA avec Microsoft Defender pour Cloud Apps | Applications SaaS d'IA |
| 4 | Découvrez les charges de travail IA déployées dans votre environnement et obtenez des insights de sécurité avec Microsoft Defender pour Cloud Security Posture Management (CSPM) | Applications d'IA personnalisées basées sur Azure AI |
Étape 1 : Assurer la visibilité sur les agents avec Entra Agent ID (préversion)
À mesure que les organisations créent et adoptent des agents d’IA, il est difficile de suivre ces acteurs non humains. La chose qui rend ces agents puissants, leur capacité à gérer de manière autonome des tâches complexes et à agir comme des collègues virtuels, soulève également des préoccupations. C’est pourquoi il est essentiel de suivre les identités d’agent, de gérer leur cycle de vie et leurs autorisations, et de sécuriser soigneusement leur accès aux ressources de votre organisation.
Microsoft Entra Agent ID (aperçu) fournit un Répertoire unifié de toutes les Identités d'agent créées dans Microsoft Copilot Studio et Azure AI Foundry. Il s’agit d’une première étape dans la fourniture d’une visibilité, d’une protection et d’une gouvernance encore plus importantes du volume rapide d’agents dans les organisations.
| Tâche | Ressources recommandées |
|---|---|
| Afficher tous les agents de votre organisation | connectez-vous au Centre d’administration Microsoft Entra et accédez aux applications d’entreprise. Dans la barre de filtre en haut de la vue de liste, définissez la liste déroulante du type d'application sur Entra Agent ID (préversion). Instantanément, votre liste d’applications d’entreprise s’affinera pour afficher les agents IA (créés via Copilot Studio ou Azure AI Foundry) inscrits dans votre locataire. |
| En savoir plus en consultant ce blog | Annonce de l’ID de l’agent Microsoft Entra : Sécuriser et gérer vos agents IA |
Étape 2 : obtenir une visibilité de l’utilisation de l’IA avec Data Security Posture Management (DSPM) pour l’IA
Microsoft Purview Data Security Posture Management (DSPM) pour l’IA se concentre sur la façon dont l’IA est utilisée dans votre organisation, en particulier sur la façon dont vos données interagissent avec les outils IA. Il fonctionne avec des sites d’IA génératives. DSPM pour l’IA fournit des insights plus approfondis pour Microsoft Copilots et les applications SaaS tierces comme ChatGPT Enterprise et Google Gemini.
Le diagramme suivant montre l’une des vues agrégées sur l’impact de l’utilisation de l’IA sur vos données : Interactions sensibles par application d’IA générative.
DSPM pour IA offre un ensemble de fonctionnalités qui vous aident à adopter en toute sécurité l’IA sans avoir à choisir entre productivité et protection :
- Insights et analyses sur l’activité IA dans votre organization
- Stratégies prêtes à l’emploi pour protéger les données et empêcher la perte de données dans les requêtes IA
- Évaluations des risques de données pour identifier, corriger et surveiller le surpartage potentiel des données
- Actions recommandées en fonction des données de votre locataire
- Contrôles de conformité pour appliquer des stratégies optimales de gestion et de stockage des données
Pour surveiller les interactions avec des sites IA tiers, les appareils doivent être intégrés à Microsoft Purview. Si vous avez suivi les instructions de Préparation à la sécurité de l’IA, vous avez inscrit des appareils dans la gestion auprès de Microsoft Intune, puis intégré ces appareils à Defender pour point de terminaison. L’intégration des appareils se fait sur Microsoft 365 (y compris Microsoft Purview) et Microsoft Defender pour point de terminaison (MDE).
Utilisez les ressources suivantes pour découvrir des applications et des données IA avec DSPM pour l’IA.
| Tâche | Ressources recommandées |
|---|---|
| Vérifiez que les appareils sont intégrés à Microsoft Purview. | Si les appareils ne sont pas encore intégrés à Defender pour point de terminaison, il existe plusieurs méthodes pour les intégrer. Consultez la rubrique Intégrer des appareils Windows dans Microsoft 365. |
| Comprendre les prérequis et le fonctionnement de DSPM pour l’IA | Considérations relatives au déploiement de Microsoft Purview Data Security Posture Management pour l’IA |
| Commencer à utiliser DSPM pour l’IA | Comment utiliser la gestion de la posture de sécurité des données pour l’IA |
| Vérifier les sites IA pris en charge | Sites IA pris en charge par Microsoft Purview pour les protections de sécurité et de conformité des données |
Étape 3 : Découvrir, sanctionner et bloquer des applications IA avec Microsoft Defender pour Cloud Apps
Microsoft Defender pour Cloud Apps aide les équipes de sécurité à découvrir les applications et l’utilisation SaaS GenAI.
Le catalogue d’applications Defender pour Cloud Apps comprend une catégorie d’IA Générative pour les applications de modèle de langage volumineux (LLM), telles que Microsoft Bing Chat, Google Bard, ChatGPT, etc. Defender pour Cloud Apps a ajouté plus d’un millier d’applications liées à l’IA générative dans le catalogue, ce qui offre une visibilité sur l’utilisation des applications IA génératives dans votre organisation et vous aide à les gérer en toute sécurité.
Avec Defender pour Cloud Apps, vous pouvez :
- Filtrer les applications d'IA générative
- Découvrir les applications IA utilisées au sein de votre organisation
- Afficher les évaluations des risques prêtes à l’emploi pour chaque application, y compris 90 facteurs de risque supplémentaires pour la sécurité et la conformité réglementaire
- Sanctionner ou ne pas sanctionner (bloquer) l’utilisation d’applications spécifiques
- Créez des stratégies qui continuent de découvrir des applications IA en fonction des critères que vous définissez, notamment le score de risque, le nombre d’utilisateurs par jour et d’autres. Vous pouvez même annuler automatiquement les applications qui répondent aux critères.
Utilisez les ressources suivantes pour les étapes suivantes.
| Tâche | Ressources recommandées |
|---|---|
| Pilotage et déploiement de Defender pour Cloud Apps | Comment piloter et déployer Microsoft Defender pour Cloud Apps ? |
| Passez en revue ce tutoriel vidéo | Découvrez quelles applications IA génératives sont utilisées dans votre environnement à l’aide de Defender pour cloud Apps |
| Afficher les applications découvertes | Afficher les applications découvertes avec le tableau de bord Cloud Discovery |
| Rechercher votre application cloud et calculer le score de risque | Catalogue d’applications cloud et scores de risque - Microsoft Defender pour Cloud Apps |
| Gouverner les applications découvertes | Gouverner les applications découvertes - Microsoft Defender pour Cloud Apps |
Étape 4 : découvrir les charges de travail IA déployées dans votre environnement et obtenir des insights de sécurité avec Microsoft Defender pour Cloud
Le plan CSPM (Defender Cloud Security Posture Management) dans Microsoft Defender pour Cloud fournit des fonctionnalités de gestion de la posture de sécurité de l'IA, en commençant par la découverte des applications d'IA développées dans vos environnements :
- À la découverte de la liste de matériaux de l'IA générative (Bill of Materials, BOM), qui inclut des composants d'application, des données et des éléments d'IA, depuis le code jusqu'au cloud.
- Renforcement de la posture de sécurité des applications IA générative avec des recommandations intégrées et en explorant et en corrigeant les risques de sécurité.
- Utilisation de l’analyse du chemin d’attaque pour identifier et corriger les risques.
Utilisez l’Explorateur de sécurité cloud pour identifier les charges de travail et les modèles d’INTELLIGENCE artificielle générative s’exécutant dans votre environnement. Cloud Security Explorer inclut des requêtes préconfigurées :
- Charges de travail et modèles IA en cours d’utilisation
- Référentiels de code vulnérables de l’IA générative qui provisionnent Azure OpenAI
- Conteneurs exécutant des images de conteneur avec des vulnérabilités d’IA générative connues.
Vous pouvez également configurer vos propres requêtes.
Utilisez les ressources suivantes pour les étapes suivantes.
| Tâche | Ressources recommandées |
|---|---|
| En savoir plus sur la gestion de la posture de sécurité de l’IA | Gestion de la posture de sécurité de l’IA avec Defender pour cloud |
| Découvrir des charges de travail liées à l'IA | Charges de travail et modèles IA en cours d’utilisation |
| Explorer les risques de prédéploiement des artefacts d’IA génératives | Risques de prédéploiement des artefacts d’IA générative |
Étape suivante pour la sécurisation de l’IA
Après avoir découvert l’utilisation de l’IA dans votre organisation, l’étape suivante consiste à appliquer des protections :
- Protéger les données sensibles utilisées avec les applications IA
- Implémenter la protection contre les menaces spécifique pour l'utilisation de l'IA
Consultez l’article suivant de cette série : Comment protéger mon organisation lors de l’utilisation d’applications IA ?




