Partager via


Créer une posture de sécurité forte pour l’IA

Votre posture de sécurité en matière d'intelligence artificielle est une partie importante de votre stratégie de sécurité globale. L’IA met la priorité sur des éléments spécifiques d’une stratégie de cybersécurité, comme la protection des données. Cet article vous aide à développer votre stratégie et vos priorités pour sécuriser l’IA. Les articles suivants de cette collection vous aident à identifier les éléments spécifiques de la cybersécurité à hiérarchiser lorsque vous adoptez des compagnons IA, des outils et de nouvelles applications.

Votre posture de sécurité est définie comme la capacité globale de défense de cybersécurité de votre organisation, ainsi que le niveau de préparation et d’état opérationnel pour gérer les menaces de cyber-sécurité en cours. Cette posture doit être mesurable et mesurable, de la même façon que toute autre mesure majeure relative à l’état opérationnel ou au bien-être de votre organisation.

Diagramme montrant la posture de sécurité de l’organisation.

La création d’une posture de sécurité forte pour l’IA implique de travailler au sein de votre organisation, en particulier des leaders de votre organisation, pour développer une stratégie et un ensemble de priorités et d’objectifs. Vous identifiez ensuite le travail technique nécessaire pour atteindre les objectifs et diriger les différentes équipes pour les accomplir. Les articles de cette bibliothèque fournissent une méthodologie avec des conseils spécifiques à l’IA :

  • Préparez votre environnement avec des protections de sécurité de base. Vous avez probablement déjà beaucoup de ces protections en place.
  • Découvrez les applications IA utilisées dans votre organisation, y compris les types de données que les applications utilisent.
  • Protégez l’utilisation des outils IA dans votre organisation. Cela implique des fonctionnalités de protection des données spécifiques à l’IA et garantit que votre organisation a implémenté une protection forte contre les menaces.
  • Gouverner l'IA pour assurer la conformité.

Diagramme montrant le processus d’implémentation de la sécurité pour l’IA.

Utilisez cette bibliothèque avec les frameworks suivants sur Microsoft Learn :

Diagramme montrant l’infrastructure de la sécurité pour l’IA.

Dans l’image :

  • Utilisez cette bibliothèque (Sécurité pour la bibliothèque IA) pour apprendre à implémenter des fonctionnalités pour sécuriser des applications et des données IA dans votre environnement. Ces protections aident à créer votre base Confiance Zéro.
  • Utilisez le framework d’adoption de Confiance Zéro pour continuer à progresser vers la sécurité de bout en bout. Chacun des scénarios métier Confiance Zéro augmente également votre sécurité pour les applications et données IA.
  • Utilisez le Framework d’adoption du cloud pour l’IA pour développer votre feuille de route de bout en bout pour l’adoption de l’IA, y compris l’IA générative et non générative. Cette bibliothèque inclut des stratégies pour choisir des technologies IA, des processus pour sécuriser et régir l’IA, ainsi que des ressources pour la conception et l’implémentation de l’IA.

Comprendre les motivations de vos dirigeants d’entreprise

Une posture forte de sécurité de l’IA permet à l’innovation : elle permet aux organisations de créer et de déployer l’IA avec confiance et agilité. L’objectif est de permettre à l’organisation de créer, déployer et mettre à l’échelle des systèmes IA en toute confiance tout en protégeant les risques susceptibles de compromettre la confiance, la conformité ou la stabilité opérationnelle. En incorporant la sécurité dans la base d’initiatives d’IA, les organisations peuvent libérer le plein potentiel de l’IA de manière responsable, en s’assurant qu’elle reste une ressource stratégique plutôt qu’une source de préjudice involontaire.

Commencez à développer votre stratégie et vos priorités en obtenant l’alignement avec vos dirigeants d’entreprise. Qu’est-ce qui motive vos dirigeants et pourquoi s’intéressent-ils à votre posture de sécurité pour l’IA ? Le tableau suivant fournit des exemples de perspectives, mais il est important que vous rencontriez chacun de ces dirigeants et équipes et que vous compreniez les motivations des uns et des autres.

Rôle Pourquoi la création d’une posture de sécurité forte pour l’IA est importante
Chef de la direction (PDG) Les systèmes IA forment de plus en plus des décisions stratégiques et des interactions client. Une violation ou une manipulation de l’IA peut entraîner des décisions médiocres, un examen réglementaire, des dommages de réputation et une perte de confiance. Une sécurité IA forte est essentielle pour l’organisation afin de protéger la réputation de l’entreprise, de garantir la conformité légale et de garantir une transformation de l’IA réussie.
Directeur marketing (CMO) Les outils IA permettent d’obtenir des insights sur les clients, de cibler et de personnaliser. En cas de compromission, ces outils peuvent entraîner des fuites de données, des sorties biaisées ou des dommages de marque en raison d’un contenu ou d’un ciblage inappropriés. La sécurisation de l’IA garantit la confiance dans l'engagement client, préserve l'intégrité de la marque, prévient les désastres de relations publiques et démontre l’engagement de l’entreprise à protéger la confidentialité des clients.
Directeur informatique (CIO) Un environnement IA sécurisé est essentiel pour garantir la fiabilité du système, empêcher l’accès non autorisé et maintenir la résilience opérationnelle. Cela permet aux CIO d’intégrer en toute confiance des technologies IA qui améliorent l’entreprise sans exposer l’entreprise à un risque excessif.
Chef de la sécurité des informations (CISO) L’IA introduit de nouvelles surfaces d’attaque et de nouveaux risques tout en amplifiant également les risques existants. Les nouvelles surfaces d’attaque incluent les invites, les réponses, les modèles, les données RAG, le protocole MCP (Model Context Protocol), les données d’entraînement et l’empoisonnement des données, les attaques de jailbreak, la sécurité des données, etc. Le CISO doit mener des efforts dans la modélisation des menaces et sécuriser les pipelines IA pour maintenir la posture de sécurité de l’entreprise. Une sécurité ia robuste est une extension de la stratégie globale de cyberdéfense pour protéger les ressources de l’organisation, se conformer aux infrastructures de sécurité et maintenir la confiance des clients et des parties prenantes dans l’âge des systèmes intelligents.
Directeur technique (CTO) Une posture forte de sécurité de l’IA est essentielle pour les CTO afin de protéger les ressources technologiques de l’organisation et de s’assurer que les systèmes IA fonctionnent de manière fiable comme prévu. En intégrant la sécurité dans le cycle de vie du développement d’IA, le CTO permet d’empêcher les violations des algorithmes sensibles et de maintenir une haute qualité et une confiance dans les produits pilotés par l’IA. Cela permet à l’innovation de continuer sans risque excessif.
Directeur des opérations (COO) L’IA automatise les processus critiques dans la chaîne logistique, la logistique et les opérations. Les attaques sur les systèmes IA peuvent perturber les services, augmenter les risques opérationnels et entraîner des retards coûteux. Une posture forte de sécurité de l’IA garantit la continuité et l’efficacité de l’activité.
Directeur financier (DIRECTEUR FINANCIER) Les CFO considèrent une posture de sécurité IA robuste comme essentielle à la protection de l’organisation. Il permet d’éviter les pertes financières imprévues et de garantir la conformité aux lois et aux obligations de déclaration.

Résoudre le paysage des menaces en constante évolution pour l’IA

GenAI introduit de nouvelles surfaces d’attaque, changeant efficacement le paysage des risques. En plus de gérer les vecteurs de menace traditionnels, les responsables de la sécurité et des risques doivent également résoudre les risques amplifiés tels que la fuite de données et le sur-partage des données, ainsi que de nouveaux risques tels que les injections d’invites, les informations incorrectes, les vulnérabilités du modèle et les informations incorrectes. La résolution du paysage des menaces en constante évolution est essentielle pour permettre une IA fiable.

Diagramme montrant le GenAI présentant de nouveaux risques.

Dans l’illustration :

  • Les surfaces d’attaque genAI introduisent des risques nouveaux et amplifiés.
  • Les vecteurs de menace qui restent inchangés incluent vos applications, identités, points de terminaison, réseau, données et ressources cloud.
  • GenAI introduit de nouvelles surfaces d’attaque, notamment les invites, les réponses, l’orchestration de l’IA, les données d’apprentissage, les données RAG (Retrieval-Augmented données de génération, ce qui signifie les données résultant d’interactions de vos données ou d’autres données externes avec des modèles de langage), des modèles IA et des plug-ins IA.
  • L'IA générative, ou GenAI, introduit de nouveaux risques amplifiés, notamment la fuite de données, le jailbreak (compromission d'appareils pourtant sécurisés), l’injection indirecte d'invites et la vulnérabilité des modèles.

Actuellement, les incidents de sécurité les plus courants dans l’IA sont les suivants :

  • Fuites de données et partage de données : les utilisateurs peuvent fuiter des données sensibles vers des applications d’ia fantôme (les applications non approuvées par votre équipe informatique). Les utilisateurs peuvent également accéder aux données sensibles à l’aide d’applications IA.
  • Vulnérabilités et menaces émergentes : les acteurs malveillants peuvent exploiter des vulnérabilités dans les applications IA pour accéder à des ressources précieuses.
  • Non conforme — Les réglementations, y compris les réglementations émergentes en matière d’IA, peuvent accroître l’incertitude. L’adoption non conforme de l’IA peut augmenter la responsabilité.

Les deux exemples de scénarios suivants mettent en évidence la nécessité de créer une posture de sécurité forte pour l’IA.

Comment le partage et la fuite de données se produisent-ils ?

Dans cet exemple, un employé Contoso, Adele, recherche et utilise des données sensibles avec plusieurs applications IA.

Étape Descriptif Risques nonmitigés
1 Adele entend un membre de l’équipe mentionner « Project Obsidian ». Elle utilise Microsoft 365 Copilot pour y trouver plus d’informations. Copilot lui fournit un résumé et un lien vers les documents. Copilot peut traiter des données sensibles sans limitations. Les données sensibles sont surexposées à des employés, y compris ceux qui n'y devraient pas avoir accès.
2 Adele continue d’utiliser Copilot pour trouver et collecter plus d’informations sur Project Obsidian. Il n’existe aucun contrôle en place pour détecter les anomalies dans les applications IA.
3 Hors de curiosité, Adele veut voir ce que ChatGPT résumerait, donc elle colle le contenu du fichier dans ChatGTP. Il n’existe aucune protection contre la perte de données (DLP) en place pour empêcher les fuites de données vers les applications IA grand public.
4 Les détails du projet ont été révélés prématurément, ce qui a entraîné des violations de données. Par conséquent, Contoso a interdit toutes les applications IA dans le lieu de travail. L’interdiction pure et simple de l’IA des consommateurs peut entraîner une utilisation plus sombre.

Contoso pourrait avoir atténué ces risques en effectuant le travail de préparation, de découverte et de protection de l’utilisation des applications IA.

Étape Descriptif
Préparer Utilisez Entra et SharePoint Advanced Management pour dimensionner correctement l’accès des employés aux ressources.
Utilisez Purview Information Protection pour classifier et étiqueter des données sensibles.
Découvrir Utilisez Purview DSPM pour l’IA pour découvrir les risques de données.
Utilisez un rapport d’évaluation de sur-partage pour évaluer les risques de sur-partage.
Protéger Appliquez Purview DLP pour Microsoft 365 Copilot pour empêcher Copilot de résumer les données sensibles.
Utilisez Purview Insider Risk Management pour détecter et examiner les activités d’anomalie. Utilisez la protection adaptative pour restreindre dynamiquement l’accès pour les utilisateurs à haut risque.
Utilisez Defender pour Cloud Apps pour bloquer les applications à haut risque.
Utilisez l’accès conditionnel Entra pour exiger que Adele accepte les conditions d’utilisation avant d’accorder l’accès à ChatGPT.
Utilisez Purview endpoint DLP pour empêcher le collage de données sensibles dans des applications d’IA grand public.

Comment l’IA peut-elle introduire des risques pour la conformité ?

Dans cet exemple suivant, Jane est affectée pour diriger la gouvernance de l’IA pour Contoso.

Étape Descriptif Risques nonmitigés
1 Jane lutte pour interpréter les exigences réglementaires en contrôles actionnables pour que les équipes informatiques implémentent. Manque d’experts qui sont bien familiarisé avec les exigences réglementaires et la technologie.
2 Jane commence à préparer des évaluations des risques, mais ignore les systèmes d’INTELLIGENCE artificielle créés et utilisés chez Contoso. Elle n’a pas non plus de visibilité sur l’utilisation et les risques de conformité potentiels. Aucune visibilité sur les systèmes IA déployés dans l’environnement. Aucune gouvernance de l’utilisation de l’IA.
3 Après plusieurs entrevues internes, Jane se rend compte que les développeurs créent environ 14 applications IA simultanément, avec différentes normes de sécurité, de sûreté et de confidentialité implémentées. Aucune visibilité sur les contrôles intégrés dans les systèmes IA par les développeurs.
4 Certaines applications IA utilisent des données personnelles sans garde-fous standard pour évaluer les risques. Aucune évaluation des risques en place.
5 Les clients se plaignent de la création de contenu dangereux et sans premier plan par Contoso AI. Manque de contrôles pour les sorties IA.

Les réglementations ia entraînent une incertitude et un risque de responsabilité écrasant pour les dirigeants responsables de la gouvernance de l’IA. Sans aucune modification, Contoso risque de violer les exigences réglementaires de l’IA et peut faire face à des pénalités et à des dommages à la réputation.

Contoso pourrait avoir atténué ces risques en effectuant le travail de préparation, de découverte et de protection de l’utilisation des applications IA.

Étape Descriptif
Préparer Utilisez Purview Compliance Manager pour obtenir des conseils sur l’implémentation de contrôles qui peuvent aider à répondre aux exigences de conformité.
Découvrir Utilisez Defender pour cloud pour découvrir les ressources IA déployées dans des environnements cloud. Utilisez Defender pour Cloud Apps pour découvrir les applications IA SaaS en cours d’utilisation.
Gouvernance Régir l’utilisation de l’IA avec l’audit Microsoft Purview, la gestion du cycle de vie des données, la conformité des communications et eDiscovery.
Utilisez des rapports IA dans Azure AI Foundry pour les développeurs afin de documenter les détails du projet IA.
Utilisez les évaluations de confidentialité de Privé pour évaluer de manière proactive les risques de confidentialité pour chaque projet IA.
Utilisez Azure AI Content Safety pour atténuer les risques liés à du contenu dangereux ou non fondé.

Grâce à l’utilisation proactive des fonctionnalités de gouvernance, les organisations peuvent évaluer et résoudre les risques lors de l’adoption de l’IA.

Cinq étapes pour implémenter une sécurité efficace pour l’IA

Étant donné que la sensibilisation aux risques associés à la mise en œuvre rapide de GenAI augmente, de nombreuses organisations répondent de manière proactive en dédicant des ressources substantielles pour améliorer leurs mesures de sécurité. Les responsables de la sécurité et des risques peuvent prendre plusieurs actions concrètes pour créer un chemin vers l'innovation en IA sécurisée.

Ces pratiques recommandées se concentrent sur la promotion d’un environnement collaboratif et la mise en œuvre de mesures de sécurité efficaces qui soutiendront les progrès de GenAI tout en protégeant les intérêts organisationnels.

Étape 1 : Créer une équipe de sécurité pour l’IA

Une majorité d’entreprises reconnaissent la nécessité de former des équipes interfonctionnelles dédiées pour gérer les défis de sécurité uniques posés par l’IA. Les équipes de sécurité dédiées garantissent que les systèmes IA sont rigoureusement testés, que les vulnérabilités sont rapidement identifiées et atténuées, et que les protocoles de sécurité sont mis à jour en permanence pour suivre l’évolution des menaces.

Quatre-vingt pour cent des répondants de l’enquête ont actuellement (45%) ou prévoient d’avoir (35%) une équipe dédiée pour gérer la sécurité pour l’IA. Plus de 6 en 10 ont déclaré que leurs équipes feront rapport à un décideur en matière de sécurité, en garantissant non seulement une surveillance vigilante, mais également une vision stratégique et un leadership en matière de gestion des risques liés à l’IA.

Notamment, la taille médiane de l’équipe ou la taille de l’équipe prévue, de ces équipes de sécurité dédiées était de 24 employés, en soulignant les ressources substantielles que les entreprises s’engagent à protéger leurs initiatives d’IA. Lorsque la taille de l’entreprise a été prise en compte, les tailles d’équipe varient.

Voici quelques bonnes pratiques que les organisations peuvent utiliser pour créer une équipe de sécurité interfonctionnelle efficace pour l’IA.

Former un comité IA pour favoriser la collaboration entre les services

La sécurité pour l’IA est un effort collectif qui va au-delà du service informatique. Encouragez la collaboration entre les équipes telles que la sécurité, l’informatique, la conformité et la gestion des risques pour créer des stratégies de sécurité complètes. La diversité des perspectives et de l’expertise permettra d’améliorer l’efficacité des protocoles de sécurité.

Embaucher divers ensembles de compétences

La formation d’une équipe de sécurité réussie pour l’IA nécessite un équilibre entre les compétences. Recherchez les membres de l’équipe disposant d’une expertise en science des données, cybersécurité, ingénierie logicielle et Machine Learning. Cette diversité garantit que différents aspects de la sécurité sont couverts, du développement technique à la prévention des menaces.

Établir des rôles et des responsabilités clairs

Pour une productivité efficace, définissez clairement le rôle de chaque membre de l’équipe. Assurez-vous que tout le monde comprend ses responsabilités spécifiques, ce qui favorise la responsabilité et évite les chevauchements dans les efforts.

Investir dans la formation et le développement continus

L’évolution rapide des technologies IA impose une éducation continue pour les équipes de sécurité. Fournir l’accès aux programmes de formation et aux ateliers qui se concentrent sur les pratiques, les menaces émergentes et les considérations éthiques liées à la sécurité pour l’IA. Cet investissement non seulement habilite les membres de l'équipe, mais garantit également que l'organisation maintient son avance sur les vulnérabilités potentielles.

Étape 2 : optimiser les ressources pour sécuriser GenAI

L’introduction d’applications IA au sein des organisations ne révolutionne pas seulement les opérations, mais nécessite également des changements importants dans l’allocation des ressources et du budget, en particulier dans la sécurité informatique.

Une majorité importante des responsables de la sécurité et des risques (78%) croient que leur budget de sécurité informatique augmentera pour répondre aux défis uniques et aux opportunités que l’IA offre. Cet ajustement est crucial pour plusieurs raisons. Les systèmes IA nécessitent une infrastructure de sécurité robuste pour fonctionner en toute sécurité. Cela peut impliquer la mise à niveau des systèmes de sécurité existants, l’implémentation de contrôles d’accès plus stricts et l’amélioration de la sécurité et de la gouvernance des données. D’autres ressources peuvent également être nécessaires pour répondre aux nouvelles exigences réglementaires de l’IA émergentes.

Plus haut dans cet article, Microsoft recommande de faire le travail pour comprendre les motivations des dirigeants d’entreprise et différentes unités commerciales au sein de votre organisation. L’identification des principales préoccupations et des objectifs commerciaux partagés est une étape importante de la négociation des ressources pour atteindre les objectifs.

L’allocation de fonds pour les évaluations de conformité, les consultations juridiques et les audits est essentielle pour aligner la stratégie IA d’une organisation sur un cadre industriel et permettre une utilisation et des systèmes d’IA plus sécurisés, sécurisés et conformes. Hiérarchiser les fonds pour la formation continue des employés et le développement des compétences, qui pourraient inclure une formation spécialisée sur les outils de sécurité pour l’IA, les stratégies de gestion des risques et les considérations éthiques en matière d’utilisation de l’IA est également important de prendre en compte lors de l’allocation de ressources et de budget.

Étape 3 : adopter une approche confiance zéro

Lors de la préparation à l’adoption de l’IA, une stratégie confiance zéro fournit aux responsables de la sécurité et des risques un ensemble de principes qui aident à résoudre certaines de leurs principales préoccupations, notamment le surpartage des données ou la surexposition et l’informatique fantôme. Une approche confiance zéro passe d’un focus centré sur le réseau à un focus centré sur les ressources et les données et traite chaque demande d’accès comme une menace potentielle, quelle que soit son origine.

La confiance zéro valide constamment les identités de chaque utilisateur et appareil, ce qui garantit que seules les personnes disposant d’autorisations claires peuvent atteindre des informations sensibles. En ajustant dynamiquement les mesures de sécurité basées sur des évaluations en temps réel, Zero Trust réduit le risque de fuite de données et protège une organisation contre les menaces internes et externes. La vérification continue, l’accès aux privilèges minimum et la gestion dynamique des risques sont les pierres angulaires de cette approche, offrant un framework de sécurité robuste et adaptable qui prend en charge la réussite de la sécurité de bout en bout d’une organisation.

En embrassant Zero Trust, les organisations peuvent sécuriser leurs déploiements d’IA et savoir que leur sécurité est validée et protégée en continu. Zero Trust permet aux organisations d’adopter l’IA en toute confiance, en veillant à ce que les puissantes fonctionnalités de l’IA soient exploitées en toute sécurité et efficacement.

Tous les conseils de sécurité pour l’IA fournis par Microsoft sont ancrés dans les principes de confiance zéro. En créant une base solide de Confiance Zéro, vous suivez les conseils de sécurité recommandés pour GenAI.

Étape 4 : Investir dans une responsabilité partagée avec les partenaires que vous approuvez

Une ressource souvent utilisée pour aider à informer la stratégie et les priorités est le modèle de responsabilité partagée. Votre responsabilité en matière de sécurisation de l’utilisation de l’IA dans votre organisation est basée sur le type d’applications utilisées. Les partenaires que vous investissez en partage de responsabilité avec vous.

Un modèle de responsabilité partagée aide les équipes de sécurité à guider leur organisation à choisir :

  • Applications GenAI qui réduisent la responsabilité de leurs organisations.
  • Partenaires qui ont gagné leur confiance.

Diagramme montrant le modèle de responsabilités partagées par l’IA.

Ce diagramme résume l’équilibre des responsabilités pour vous et Microsoft. De nombreuses organisations utilisent le modèle de responsabilité partagée pour hiérarchiser l’utilisation des applications SaaS en partenariat avec des fournisseurs approuvés et réduire le nombre d’applications personnalisées.

Pour plus d’informations, consultez le modèle de responsabilité partagée PAR IA - Microsoft Azure.

En plus d’investir avec des partenaires qui ont gagné votre confiance, de nombreux professionnels de la sécurité recommandent de consolider les outils de sécurité et les fournisseurs. Microsoft offre une solution de sécurité complète pour l’IA avec des outils qui fonctionnent ensemble, réduisant considérablement le volume de travail d’intégration pour les équipes de sécurité.

Étape 5 : Adopter une solution de sécurité complète pour l’IA

L’IA présente des risques spécifiques auxquels les mesures de sécurité traditionnelles peuvent ne pas répondre entièrement. La sécurité pour l’IA est conçue pour atténuer ces risques.

Une grande majorité des entreprises prévoient de se procurer des outils et des plateformes spécialisés pour sécuriser l’utilisation et le développement d’applications IA. Lorsqu’on leur a demandé comment ils planifient la sécurisation et la protection de l’utilisation et du développement d’applications IA dans leurs organisations, la plupart des répondants (72%) ont déclaré qu’ils prévoyaient d’acquérir une nouvelle solution de sécurité dédiée pour sécuriser l’utilisation et le développement de l’IA, tandis que 64% ont déclaré qu’ils prévoyaient d’utiliser des solutions de sécurité existantes pour sécuriser l’IA.

Les responsables informatiques et de sécurité estiment que les principaux contributeurs budgétaires pour les nouvelles solutions pour la protection et la gouvernance de l’IA seront des services informatiques (63%) et des services de sécurité et de cybersécurité de l’information (57%). Ces résultats montrent qu’en plus de continuer à utiliser des solutions de sécurité existantes, les organisations voient la nécessité de rechercher de nouvelles solutions qui peuvent aider à résoudre les risques amplifiés et émergents de l’IA.

Outre la plateforme de sécurité de bout en bout de Microsoft, Microsoft fournit des outils de sécurité complets pour sécuriser l’IA, de la découverte d’outils ia et de données aux protections conçues spécifiquement pour atténuer les menaces d’IA. Ces outils incluent des tableaux de bord sophistiqués et des ressources de conformité, ce qui vous aide à rester au-dessus des risques et des obligations réglementaires.

Les fonctionnalités de Microsoft offrent une protection complète et complète pour vos applications et données IA.

L'image suivante est une vue récapitulative de toutes les fonctionnalités que Microsoft fournit pour la protection de l'adoption de l'IA. Ces fonctionnalités sont également répertoriées dans le tableau ci-dessous.

Diagramme des produits Microsoft qui aident à la sécurité pour l’IA.

Principales préoccupations des clients Capacités
Empêcher la fuite et le partage de données - Contrôles d’accès et de point de terminaison — Microsoft Entra &Intune
- Gestion de la posture de sécurité des données pour l’IA — Microsoft Purview
- Classification des données, étiquetage et protection — Microsoft Purview
- Protection contre la perte de données — Microsoft Purview
- Détection et réponse des activités à risque - Microsoft Purview
- Sécurité des applications SaaS - Microsoft Defender
Protéger l’IA contre les vulnérabilités et les menaces émergentes - Sécurité et gouvernance des données - Microsoft Purview
- Évaluation des contrôles de qualité, de sûreté et de sécurité — Azure AI Foundry
- Gestion de la posture de sécurité pour les ressources IA (applications, modèles, orchestrateurs, kits SDK) — Microsoft Defender
- Stratégie de gouvernance du modèle — Portail Azure
- Bouclier de sécurité des invites de contenu – Azure AI
- Protection contre les menaces pour les charges de travail IA — Microsoft Defender
Régir l’IA pour se conformer aux exigences réglementaires - Évaluations de conformité par rapport aux réglementations et normes d’IA — Microsoft Purview
- Découverte et catalogue d’IA - Microsoft Defender
- Audits promptes et de réponse, gestion du cycle de vie, eDiscovery, conformité des communications — Microsoft Purview
- Rapports IA pour les développeurs afin de consigner les détails et les contrôles du projet — Azure AI Foundry
- Évaluation de l’impact sur la confidentialité — Microsoft Privé
- Atténuation du contenu dangereux, des informations incorrectes et des documents protégés – Sécurité du contenu Azure AI

Étapes suivantes pour la sécurisation de l’IA

Cette bibliothèque vous guide tout au long du processus d’implémentation de la sécurité pour l’IA dans une approche intermédiaire.

Diagramme montrant le processus d’implémentation de la sécurité pour l’IA.

Suivez les instructions de cette série d’articles pour en savoir plus sur la sécurisation de l’IA et l’identification et l’implémentation de fonctionnalités pour atteindre les objectifs de votre organisation.

Pour en savoir plus sur l’optimisation de votre posture de sécurité globale et la confiance zéro, consultez La modernisation rapide de votre posture de sécurité.

Pour commencer à utiliser les protections de sécurité recommandées pour les compagnons IA, consultez Utiliser la sécurité Confiance zéro pour préparer les compagnons IA, notamment Microsoft Copilots.