Partager via


Régir les applications et les données IA pour la conformité réglementaire

Les réglementations et normes de l’IA émergent dans les régions et les industries, fournissant un cadre robuste aux organisations pour évaluer, implémenter et tester leurs contrôles afin de développer et d’utiliser une IA fiable. Cet article aide les équipes à risque et à la conformité à se préparer à l’effort de conformité. Il décrit comment :

  • Évaluez et renforcez votre posture de conformité par rapport aux réglementations.
  • Implémentez des contrôles pour régir l’utilisation des applications et données IA.

Il s’agit du quatrième article d’une série. Si vous n’avez pas encore accompli les tâches de préparation à la sécurité de l’IA, découvrir des applications et des données IA, et protéger les applications et données IA, commencez par ces articles pour préparer votre environnement avec des fonctionnalités prescrites dans cet article.

Diagramme qui met en évidence le gouvernement à partir des articles sur la sécurité pour l'IA.

Utilisez cet article avec ces ressources :

Quelles sont les nouvelles considérations relatives à la gouvernance des applications et des données IA ?

Tout comme l’IA introduit de nouvelles surfaces d’attaque qui changent le paysage des risques, l’IA introduit également de nouvelles méthodes de traitement et d’utilisation de données qui affectent la conformité réglementaire. Ces nouvelles caractéristiques de l’IA affectent à la fois les réglementations existantes, telles que les réglementations en matière de confidentialité et les nouvelles réglementations ciblées spécifiquement sur l’utilisation de l’IA.

L’illustration suivante met en évidence les réglementations émergentes en matière d’IA, notamment l’intelligence artificielle et la Loi sur les données (AIDA) en Amérique du Nord, la Loi sur l’IA de l’UE, le Plan d’action de l’IA en Australie et les normes mondiales produites par l’ISO.

Capture d’écran montrant les normes globales produites par les réglementations ISO pour l’IA.

En règle générale, la gouvernance de l’IA pour la conformité réglementaire comprend les éléments suivants :

  • Journalisation et conservation des interactions IA.
  • Détection d’une utilisation non conforme potentielle.
  • Utilisation d'outils, tels que eDiscovery pour les interactions avec l'IA, le cas échéant.

Cela permet aux organisations de répondre à leurs exigences de conformité et de répondre efficacement aux litiges potentiels.

Pour les organisations qui créent l’IA, les équipes de risque et de conformité doivent permettre aux équipes de développement de documenter leurs détails de projet, tels que le nom du modèle, la version, l’objectif des systèmes IA et leurs métriques d’évaluation pour traiter les risques de qualité, de sécurité et de sécurité. Cet effort peut aider les équipes de risque et de conformité à disposer d’un format standardisé d’informations pour préparer les audits et répondre aux demandes réglementaires.

Une autre bonne pratique consiste à utiliser des évaluations d’impact sur la confidentialité, un contrôle que de nombreuses entreprises ont déjà mis en œuvre pour des réglementations telles que le RGPD, afin de garantir que les applications IA disposent de toutes les évaluations et contrôles en place pour protéger la confidentialité. Microsoft fournit des fonctionnalités telles que les évaluations de confidentialité Priva qui peuvent être facilement intégrées à votre cycle de vie de développement d'IA pour s'assurer que les développeurs gardent la confidentialité à l'esprit.

Enfin, pour créer des applications IA responsables et respecter de nouvelles exigences réglementaires, les organisations doivent créer des garde-fous pour détecter et bloquer le contenu nuisible, comme la violence, la haine, la sexualité et le contenu auto-nuisible. En outre, vous souhaitez que vos applications IA produisent du contenu fiable. Les garde-fous devraient aider à détecter et corriger les informations incorrectes afin de réduire le risque de décisions erronées basées sur des résultats infondés. Ils doivent également identifier le contenu qui enfreint les droits d’auteur. Ces garde-fous peuvent aider les organisations à créer des applications IA responsables et fiables.

Fonctionnalités de gouvernance des applications et des données IA

Microsoft inclut des fonctionnalités permettant aux organisations de connecter les points entre les normes réglementaires et les solutions technologiques.

Diagramme montrant les fonctionnalités de l’IA, des normes réglementaires et des solutions technologiques.

Les étapes suivantes décrivent l’illustration et décrivent également les étapes d’implémentation de ces fonctionnalités.

Étape Tâche Étendue
1 Créer et gérer des évaluations dans le Gestionnaire de conformité Microsoft Purview À l’échelle de l’entreprise
2 Utiliser Defender pour Cloud Apps pour gérer les applications IA en fonction du risque de conformité Applications SaaS d'IA
3 Utiliser Cloud Security Posture Management (CSPM) pour les charges de travail IA pour découvrir et gérer des applications personnalisées en fonction du risque de conformité Applications d'IA personnalisées basées sur Azure AI
4 Configurer la conformité des communications Purview pour réduire les risques de communication en vous aidant à détecter, capturer et agir sur des messages potentiellement inappropriés dans votre organisation Applications et services Microsoft 365
Applications IA connectées par les connecteurs Microsoft Entra ou Microsoft Purview Data Map
Services d'IA Azure
5 Configurez la gestion du cycle de vie des données Purview pour conserver le contenu que vous devez conserver et supprimer le contenu que vous n’avez pas. Les stratégies de rétention pour les applications d'intelligence artificielle incluent les invites et les réponses des utilisateurs pour Microsoft 365 Copilot et Copilot Studio, ainsi que les invites et les réponses pour d'autres copilotes Microsoft et applications d’IA générative lorsqu'elles ont une politique de collecte avec le paramètre de capture de contenu. Ces messages peuvent ensuite être conservés et supprimés aux fins de conformité.
Pour intégrer des applications IA développées sur d’autres fournisseurs de cloud, utilisez le Kit de développement logiciel (SDK) Purview.
6 Utiliser eDiscovery avec les journaux d’audit de Microsoft 365 Copilot pour les enquêtes, selon les besoins Les journaux d’audit sont générés automatiquement lorsqu’un utilisateur interagit avec Copilot ou une application IA.
Pour intégrer des applications IA développées sur d’autres fournisseurs de cloud, utilisez le Kit de développement logiciel (SDK) Purview.
7 Utiliser les évaluations de confidentialité de Privé pour lancer des évaluations d’impact sur la confidentialité pour les applications IA que vous créez N’importe quelle application, n’importe quel emplacement
8 Utiliser des rapports IA dans AI Foundry pour documenter les détails du projet IA pour les applications que vous développez Applications IA dans Azure
9 Implémenter Azure AI Content Safety pour bloquer le contenu dangereux et détecter et corriger les réponses infondées. Applications IA dans Azure

Étape 1 : Créer et gérer des évaluations dans Microsoft Purview Compliance Manager

Le Gestionnaire de conformité Microsoft Purview est une solution qui vous permet d’évaluer et de gérer automatiquement la conformité dans votre environnement multicloud. Le Gestionnaire de conformité peut vous aider tout au long de votre parcours de conformité, de l’inventaire des risques de protection de vos données à la gestion des complexités de l’implémentation de contrôles, la mise à jour des réglementations et des certifications et la création de rapports aux auditeurs.

Actuellement, le Gestionnaire de conformité inclut des modèles réglementaires pour les réglementations relatives à l’IA suivantes :

  • Loi de l’UE sur l’intelligence artificielle
  • ISO/IEC 23894:2023
  • ISO/IEC 42001:2023
  • NIST AI Risk Management Framework (RMF) 1.0

Capture d’écran montrant la Loi sur l’intelligence artificielle de l’UE.

Utilisez les ressources suivantes pour commencer à utiliser le Gestionnaire de conformité.

Tâche Ressources recommandées
Découvrez et commencez Gestionnaire de conformité Microsoft Purview
Prise en main du Gestionnaire de conformité Microsoft Purview
Créer et gérer des évaluations dans le Gestionnaire de conformité Microsoft Purview
Voir si le Gestionnaire de conformité inclut un modèle pour une réglementation Liste des réglementations
Créer une évaluation personnalisée Générer des évaluations personnalisées (préversion) dans le Gestionnaire de conformité Microsoft Purview

Étape 2 : Utiliser Defender pour cloud Apps

Utilisez Defender pour Cloud Apps pour gérer les applications IA en fonction du risque de conformité. Les articles précédents de cette série décrivent comment utiliser Defender pour Cloud Apps pour découvrir, gérer et protéger l’utilisation d’applications IA. La conformité réglementaire introduit des critères supplémentaires pour trier et évaluer le risque de ces applications.

Après avoir généré une ou plusieurs évaluations pour des réglementations spécifiques dans Purview Compliance Manager, collaborez avec votre équipe Defender for Cloud Apps pour intégrer vos obligations de conformité dans les critères permettant d’évaluer le risque d’applications IA, de sanction ou de blocage de ces applications et d’appliquer des stratégies de session pour contrôler la façon dont ces applications sont accessibles (par exemple, avec un appareil conforme uniquement).

Consultez les articles précédents de cette série pour commencer et utiliser Defender pour Cloud Apps.

Tâche Ressources recommandées
Découvrir, approuver et bloquer des applications IA avec Microsoft Defender pour Cloud Apps Voir l’étape 3 dans Découvrir les applications et données IA
Utiliser Defender pour Cloud Apps pour trier et protéger l’utilisation d’applications IA Voir Tirer le meilleur parti de la protection contre les menaces pour l’IA dans Protéger les applications et les données IA

Étape 3 : utiliser cspM (Cloud Security Posture Management) pour les charges de travail IA

Utilisez le plan CSPM (Defender Cloud Security Posture Management) dans Microsoft Defender pour Cloud pour découvrir et gérer des applications personnalisées basées sur les risques de conformité. Tout comme Defender pour Cloud Apps, la conformité réglementaire introduit des critères supplémentaires pour trier et évaluer le risque de vos applications créées personnalisées avec CSPM pour l’IA.

Collaborez avec votre équipe Defender pour Cloud pour intégrer vos obligations de conformité dans les critères d’évaluation du risque et de gouvernance de vos applications personnalisées.

Consultez les articles précédents de cette série pour commencer et utiliser Defender pour cloud.

Tâche Ressources recommandées
Découvrir les charges de travail IA déployées dans votre environnement et obtenir des insights de sécurité avec Microsoft Defender pour cloud Voir l’étape 4 dans Découvrir les applications et les données IA]
Appliquer des protections IA dans Defender pour cloud Consultez l’étape 2 pour tirer le meilleur parti de la protection contre les menaces pour l’IA dans protéger les applications et les données IA

Étape 4 : configurer la conformité des communications Purview

Configurez Purview Communication Compliance pour réduire les risques de communication en vous aidant à détecter, capturer et agir sur des messages potentiellement inappropriés dans votre organisation. Pour l’IA dégénérative, vous pouvez utiliser des stratégies de conformité des communications pour analyser les interactions (invites et réponses) entrées dans des applications d’INTELLIGENCE artificielle génératives pour vous aider à détecter des interactions inappropriées ou risquées ou à partager des informations confidentielles. La couverture est prise en charge pour Microsoft 365 Copilot, les copilotes créés à l’aide de Microsoft Copilot Studio, des applications IA connectées par Microsoft Entra ou des connecteurs Microsoft Purview Data Map, et bien plus encore.

Utilisez les ressources suivantes pour commencer.

Tâche Ressources recommandées
Découvrez et commencez. En savoir plus sur la conformité des communications
Planifier la conformité des communications
Démarrage avec la conformité des communications
Configurer des stratégies Configurer une stratégie de conformité des communications pour détecter les interactions d’IA génératives
Créer et gérer des stratégies de conformité des communications

Étape 5 : configurer la gestion du cycle de vie des données Purview

La gestion du cycle de vie des données Microsoft Purview vous fournit des outils et des fonctionnalités permettant de conserver le contenu que vous devez conserver et de supprimer celui dont vous n’avez pas besoin. La suppression proactive du contenu que vous n’avez plus besoin de conserver permet de réduire le risque de surexposition des données dans les outils IA. Les principales fonctionnalités sont les suivantes :

  • Stratégies de rétention et étiquettes de rétention.
  • Archivage des boîtes aux lettres et boîtes aux lettres inactives : les boîtes aux lettres utilisateur incluent un dossier masqué avec des invites et des réponses Copilot

Utilisez les ressources suivantes pour commencer.

Tâche Ressources recommandées
Découvrez et commencez En savoir plus sur la gestion du cycle de vie des données Microsoft Purview
Prise en main de la gestion du cycle de vie des données
En savoir plus sur la rétention des applications Copilot & IA Découvrez comment la rétention fonctionne avec les applications IA
Pour les applications IA développées dans d’autres fournisseurs de cloud, intégrez le Kit de développement logiciel (SDK) Purview En savoir plus sur le Kit de développement logiciel (SDK) Microsoft Purview

Étape 6 : utiliser eDiscovery avec les journaux d’audit pour Microsoft 365 Copilot

Utilisez Microsoft Purview eDiscovery pour rechercher des mots clés dans les invites et réponses Copilot susceptibles d’être inappropriées. Vous pouvez également inclure ces informations dans un cas eDiscovery pour examiner, exporter ou mettre ces données en attente pour une enquête juridique en cours.

Utilisez les journaux d’audit Microsoft Purview pour identifier comment, quand et où les interactions Copilot se sont produites et quels éléments ont été accessibles, y compris les étiquettes de confidentialité sur ces éléments.

Tâche Ressources recommandées
Découvrez où les données d’utilisation de Copilot sont stockées et comment vous pouvez l’auditer Architecture de protection et d'audit des données Microsoft 365 Copilot
Bien démarrer avec eDiscovery En savoir plus sur les solutions eDiscovery
En savoir plus sur les journaux d’audit Purview En savoir plus sur les solutions d’audit dans Microsoft Purview
En savoir plus sur les journaux d’audit pour les applications IA Découvrez quelles activités d’administrateur et d’utilisateur sont journalisées pour les applications IA
Pour les applications IA développées dans d’autres fournisseurs de cloud, intégrez le Kit de développement logiciel (SDK) Purview En savoir plus sur le Kit de développement logiciel (SDK) Microsoft Purview

Étape 7 : Utiliser les évaluations de confidentialité de Privé

Utilisez les évaluations de confidentialité Priva (version préliminaire) pour lancer des évaluations d’impact sur la confidentialité pour les applications d'IA que vous créez. Cela permet de s’assurer que les applications IA sont intégrées de manière respectueuse de la confidentialité. Les évaluations de confidentialité automatisent la découverte, la documentation et l’évaluation des données personnelles utilisées dans l’ensemble de votre patrimoine de données.

Utilisez les ressources suivantes pour commencer à utiliser les évaluations de confidentialité de Privé et lancer une évaluation de l’impact sur la confidentialité.

Tâche Ressources recommandées
Découvrez et commencez En savoir plus sur les évaluations de confidentialité
Bien démarrer avec les évaluations de confidentialité
Créer une évaluation Créer et gérer des évaluations de confidentialité

Étape 8 : utiliser des rapports IA dans AI Foundry

Les rapports IA dans Azure AI Foundry peuvent aider les développeurs à documenter leurs détails de projet. Les développeurs peuvent créer un rapport qui affiche tous les détails d’un projet IA, tels que les cartes de modèle, les versions de modèle, les configurations de filtre de sécurité du contenu et les métriques d’évaluation. Ce rapport peut être exporté dans des formats PDF ou SPDX, ce qui aide les équipes de développement à démontrer la préparation de la production dans les flux de travail de gouvernance, de risque et de conformité (GRC) et faciliter les audits continus des applications en production.

Capture d’écran montrant les rapports IA dans Azure AI Studio.

Utilisez les ressources suivantes pour commencer.

Tâche Ressources recommandées
En savoir plus sur les rapports IA dans AI Foundry (blog) Rapports IA : Améliorer la gouvernance de l’IA et GenAIOps avec une documentation cohérente
Découvrir et bien démarrer avec AI Foundry Qu’est-ce qu’Azure AI Foundry ?

Étape 9 : implémenter la sécurité du contenu Azure AI

Azure AI Sécurité du Contenu est un service IA qui permet de détecter les contenus dangereux générés par l’utilisateur et par l’IA dans les applications et les services. Azure AI Sécurité du Contenu comprend des API de texte et d’image qui vous permettent de détecter le contenu nuisible. Content Safety Studio interactif vous permet de visualiser, d’explorer et d’essayer des exemples de code pour la détection de contenus dangereux dans différentes modalités.

Utilisez les ressources suivantes pour commencer.

Tâche Ressources recommandées
Découvrez et commencez Qu’est-ce qu’Azure AI Sécurité du Contenu ? - Azure AI services | Microsoft Learn
Utiliser Content Safety dans le portail Azure AI Foundry

Étape suivante pour la sécurisation de l’IA

Continuez à progresser sur la sécurité de bout en bout avec les ressources Confiance Zéro :