Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Une découverte et une planification efficaces sont à la base d’une stratégie de gouvernance et de sécurité réussie pour les agents Copilot. La phase 1 se concentre sur l’alignement des parties prenantes, la définition des exigences de conformité et l’établissement d’objectifs clés pour assurer la sécurité et l’efficacité des opérations.
Exigences initiales en matière de gouvernance
Alignement des parties prenantes : garantissez l’implication des services informatiques, de la sécurité, de la conformité et juridiques dès le début. Établissez et documentez les stratégies de résidence, de conservation et de confidentialité des données qui guident les fonctionnalités de gouvernance et de sécurité nécessaires à configurer dans votre organisation.
Révision de la conformité : décrivez et documentez les réglementations nécessaires pour votre organisation (par exemple, le Règlement général sur la protection des données ou RGPD, la Health Insurance Portability and Accountability Act ou HIPAA) et détaillez les exigences en matière de conservation des données et des transcriptions de votre organisation.
Objectifs clés, scénarios métier et protection des données
Alignement de l’entreprise : identifiez les scénarios métier et les tâches gérés par l’assistant Copilot (par exemple, répondre aux demandes de commandes des clients) et déterminez les systèmes et l’intégration des données nécessaires pour gérer les risques et garantir la sécurité.
Restriction des sources de données : documentez les sources de connaissances et de données existantes au sein de votre organisation qui pourraient être utilisées par l’assistant Copilot. Incluez des exigences de conformité et des points d’intégration tels que SharePoint, Teams, et Dataverse, conformément aux exigences de l’entreprise, spécifiez si les assistants sont autorisés à utiliser leurs propres connaissances générales de l’IA
Protection des données et évaluation des risques : classez la confidentialité de toutes les sources de données documentées (générales, confidentielles, etc.), évaluez les risques potentiels de fuite de données associés à ces sources de données et établissez les politiques de sécurité et de confidentialité nécessaires pour protéger ces données (par exemple, bloquer certains connecteurs de sources de données et sources de données). Spécifiez les exigences de masquage des données dans votre organisation pour créer et gérer les règles de masquage Power Platform en conséquence.
Dénomination et directives générales
Affectation de noms aux assistants Copilot : mettez en œuvre les conventions d’affectation de noms aux assistants (par exemple, « Contoso-CustomerServiceAgent ») pour faciliter l’identification des différents assistants Copilot au sein de votre organisation.
Norme d’affectation de noms aux solutions : mettez en œuvre une convention d’affectation de noms cohérente pour votre solution d’assistant Copilot (par exemple, « ContosoCopilot ») pour garantir une encapsulation et un déploiement appropriés via votre pipeline ALM (Application Lifecycle Management), évitant ainsi le déploiement accidentel de solutions hors production dans l’environnement de production.
Directives relatives à la clause de non-responsabilité : documentez et partagez le modèle de clauses de non-responsabilité et d’avertissements de la conversation qui doit être inclus pour chaque assistant Copilot ; par exemple, dans la rubrique de démarrage de la conversation pour garantir la cohérence et la conformité avec les normes organisationnelles.
Composants partagés : identifiez les entités partagées obligatoires ou les composants réutilisables (par exemple, les sources de connaissances ou les rubriques) qui seront utilisés par tous les assistants Copilot de votre organisation pour garantir la cohérence, et les emplacements où vous pouvez utiliser les collections de composants Copilot Studio.
Licences et budget
Évaluation et attribution de permis : Évaluez les licences Microsoft 365, Power Platform, Dynamics 365, Copilot ou Azure détenues par l’organisation afin de comprendre les droits actuels, car cela pourrait potentiellement avoir des implications sur le type de licences supplémentaires nécessaires pour utiliser des fonctionnalités premium telles que la mise à la terre des graphes locataires avec la recherche sémantique et les environnements gérés. Établissez une stratégie au sein de votre organisation pour attribuer des licences utilisateur Copilot et gérer l’accès à Copilot Studio.
Estimations de coûts : Considérez les implications financières de l’utilisation de l’IA générative et de fonctionnalités premium telles que les connecteurs premium et les environnements gérés. Déterminez le modèle de facturation qui convient le mieux à votre organisation (par exemple, le paiement à l’utilisation ou les licences de capacité).
Allouer la capacité de messages :attribuez la capacité au niveau de l’environnement en allouant des modules complémentaires pour garantir que les utilisateurs au sein de l’environnement désigné ont accès à la capacité de messages Copilot Studio spécifiée.
Informations associées
- Sécurité et gouvernance Microsoft Copilot Studio
- Présentation des licences Microsoft Power Platform
- Vue d’ensemble des environnements gérés