Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Vous devez faire partie du programme Frontier en version préliminaire pour obtenir un accès anticipé à Microsoft Agent 365. Frontier vous connecte directement aux dernières innovations d’IA de Microsoft. Les versions préliminaires Frontier sont soumises aux conditions existantes de vos contrats clients qui régissent les versions préliminaires. Comme ces fonctionnalités sont encore en cours de développement, leur disponibilité et leurs capacités peuvent évoluer au fil du temps.
Microsoft Agent 365 fournit des assistants propulsés par l’IA qui travaillent à vos côtés au sein des outils de productivité et de collaboration de Microsoft 365. Une fois que vous avez ajouté un assistant à votre organisation, par exemple en en créant un à partir du magasin Teams, il peut participer aux scénarios de travail quotidiens. Vous pouvez également ajouter des assistants à des canaux Teams, des conversations de groupe, des fils de courrier électronique, des documents partagés et des bases de données professionnelles. Ils peuvent traiter des informations, les stocker et générer de nouveaux contenus ou des réponses à partir de ce que vous partagez.
Bien que les assistants améliorent la productivité en répondant aux questions, en rédigeant du contenu, en automatisant des tâches, et ainsi de suite, ils héritent également de tout le contenu que vous partagez avec eux. Cela signifie qu’un assistant peut réutiliser ou divulguer ce contenu de manière inattendue. Il est important de comprendre comment les assistants accèdent aux informations ainsi que les risques potentiels liés au partage de contenus sensibles avec eux. Microsoft fournit certains contrôles et avertissements pour vous aider à utiliser les assistants de manière responsable.
Considérez les assistants comme des collaborateurs publics et partagez du contenu avec prudence.
Avertissement
Le contenu que vous partagez avec un assistant, comme des fichiers, l’historique des conversations ou des courriers électroniques, peut être résumé ou intégré dans les réponses de l’assistant à d’autres utilisateurs, y compris des personnes qui n’ont initialement pas accès à ce contenu. Ce risque s’applique quels que soient les étiquettes de confidentialité ou les autorisations appliquées au contenu.
Cet article explique comment les assistants accèdent au contenu dans Microsoft 365, fournit des exemples de leur comportement dans différentes applications et énumère les mesures de protection ainsi que les bonnes pratiques pour sécuriser vos données. Il aborde également la manière dont les autres membres de votre organisation peuvent interagir avec un assistant que vous avez ajouté, ainsi que les mesures de transparence mises en place.
Modèles d’accès de l’assistant
Les assistants utilisent différents modes pour accéder au contenu. Dans Agent 365, il existe trois modèles d’accès (ou modes de fonctionnement). Ces modèles définissent les autorisations que l’assistant utilise lorsqu’il accède aux données.
Assistant assisté (On-behalf-of, OBO): dans ce mode, un assistant agit au nom d’un utilisateur spécifique. L’assistant utilise les identifiants et les autorisations de cet utilisateur pour accéder au contenu, comme si celui-ci pilotait directement ses actions. De nombreux assistants existants fonctionnent aujourd’hui de cette manière. Par exemple, si vous utilisez un assistant dans une conversation Teams avec le mode OBO, il ne peut voir et faire que ce que vous pouvez voir ou faire vous-même. Les assistants d’application assistés nécessitent que vous, en tant qu’utilisateur, donniez votre consentement pour que l’assistant accède à vos données en votre nom. Par exemple, lorsque vous vous connectez et approuvez certaines autorisations pour l’assistant.
Application autonome : dans ce modèle, l’assistant agit comme une application indépendante dotée de ses propres privilèges. L’assistant ne s’appuie sur les identifiants d’aucun utilisateur particulier lors de son exécution. À la place, il possède une identité d’application (ID client) dans Microsoft Entra ID, avec des autorisations API spécifiques qu’un administrateur approuve. Cela équivaut à une application de service ou à une application démon. Par exemple, un assistant disposant d’un accès en lecture à un site SharePoint et de l’autorisation « send-as » sur une boîte aux lettres. L’assistant utilise ces autorisations d’application, et non le compte d’une personne en particulier. Les assistants autonomes nécessitent le consentement ou l’approbation d’un administrateur, car ils peuvent potentiellement accéder directement aux données de plusieurs utilisateurs. Les organisations atténuent les risques en n’accordant que les privilèges strictement nécessaires (principe du moindre privilège) et en ayant la possibilité de désactiver ou de surveiller l’assistant selon les besoins.
Utilisateur autonome : il s’agit d’un nouveau modèle introduit avec Agent 365. Ici, l’assistant possède une identité d’utilisateur dans votre répertoire. L’assistant se connecte en tant que tel et peut être affecté à des équipes Teams, ajouté à des groupes, disposer d’une adresse e-mail, et ainsi de suite, comme n’importe quel utilisateur. Vous pouvez considérer qu’il s’agit d’un membre à part entière de l’organisation du point de vue des autorisations. L’assistant peut accéder au contenu qui lui est partagé ou aux emplacements où il a été ajouté. L’activation d’un tel assistant nécessite une configuration administrative. Une fois que l’assistant existe, tout utilisateur ayant accès à cet assistant (par exemple, y compris, sans s’y limiter, le responsable de l’assistant) peut lui transmettre du contenu ou l’ajouter à des emplacements. Chacune de ces actions de partage constitue un acte de consentement. Le modèle d’utilisateur autonome est puissant, car il ressemble le plus à l’ajout d’un employé, avec la persistance d’accès correspondante que cela implique, ainsi que la capacité d’extrapoler du contenu partagé à grande échelle.
Comment les assistants accèdent au contenu
Les assistants accèdent uniquement au contenu que vous partagez avec eux. Les scénarios de partage courants sont notamment les suivants :
- Canaux Teams : les assistants héritent de l’accès à toutes les ressources du canal, y compris les publications existantes et futures, les fichiers et les transcriptions de réunions.
- Conversations de groupe : les assistants peuvent lire l’historique des conversations (selon la quantité d’historique que vous incluez, comme lorsque vous ajoutez une nouvelle personne) ainsi que tous les fichiers ou liens partagés dans cette conversation. L’assistant peut également accéder aux mises à jour en direct au fur et à mesure que la conversation se poursuit.
- Courriers électroniques : lorsque vous mettez un assistant en copie, cela lui donne accès à l’intégralité du fil ainsi qu’à ses pièces jointes.
- Fichiers : le partage d’un fichier ou d’un dossier accorde un accès persistant jusqu’à sa révocation.
- Microsoft Dataverse : les assistants auxquels des rôles de sécurité ont été accordés peuvent accéder à des données métier structurées.
Risques liés au partage de contenu avec un assistant
- Exposition de contenu à des audiences non autorisées. Les assistants peuvent résumer du contenu pour des utilisateurs qui n’y ont pas initialement accès.
- Mise en avant de contenus anciens ou oubliés.
- Accès persistant aux fichiers partagés.
- Fuite de données croisées. Les assistants peuvent faire circuler des données entre des rôles ou des services.
- Aucun jugement humain sur le contenu sensible.
Protections intégrées
- Les étiquettes de confidentialité protègent les fichiers, mais pas les résumés.
- Les limites d’autorisation empêchent l’accès au contenu non partagé.
- Les journaux d’audit suivent les actions des assistants.
- Les contrôles d’administration régissent la création des assistants et leur accès.
- Des avertissements destinés aux utilisateurs apparaissent aux points de partage.
- L’application des stratégies s’exerce au moyen de la prévention de la perte de données (DLP) et des règles de conformité.
Confiance et transparence
- Les assistants sont clairement identifiés dans l’interface utilisateur.
- Le contenu généré par l’IA est signalé comme tel.
- Des avertissements s’affichent lors de la première utilisation.
- Les données restent dans les limites de conformité de Microsoft 365.
- Les administrateurs peuvent révoquer l’accès de l’assistant à tout moment.
Bonnes pratiques pour collaborer avec des assistants
Si vous souhaitez utiliser un assistant, consultez votre service informatique ou votre administrateur pour connaître les assistants disponibles et approuvés dans votre organisation.
Consultez les directives internes ou les formations que votre organisation fournit sur l’IA et la gestion des données.
Commencez par des interactions à faible risque. Par exemple, confiez à l’assistant des tâches impliquant du contenu publiquement partageable ou non sensible afin de vous familiariser avec son comportement avant de lui attribuer des tâches plus sensibles.