Partager via


FAQ sur l’IA responsable pour Copilot dans Customer Service

S’applique à : Dynamics 365 Contact Center - intégré, Dynamics 365 Contact Center - autonome et Dynamics 365 Customer Service

Cet article de la FAQ aide à répondre aux questions concernant l’utilisation responsable de l’IA dans les fonctionnalités de copilote dans Customer Service.

Définition de Copilot dans Dynamics 365 Customer Service

Copilot est un outil basé sur l’IA qui transforme l’expérience du représentant du service clientèle (représentant du service ou représentant) dans Dynamics 365 Customer Service. Il fournit une assistance basée sur l’IA en temps réel qui peut aider les représentants à résoudre les problèmes plus rapidement, à gérer les cas plus efficacement et à automatiser les tâches fastidieuses, ce qui leur permet de se concentrer sur la fourniture d’un service de haute qualité à leurs clients.

Quelles sont les capacités des systèmes ?

Copilot offre les principales fonctionnalités suivantes :

  • Poser une question : premier onglet que les représentants du service voient lorsqu’ils activent le volet d’aide de Copilot. Il s’agit d’une interface conversationnelle avec Copilot, qui permet de fournir des réponses contextuelles aux questions des représentants. Les réponses de Copilot sont basées sur des sources de connaissances internes et externes fournies par votre organisation lors de la configuration.

  • Rédiger un courrier électronique : deuxième onglet du volet d’aide de Copilot qui permet aux représentants de créer rapidement des réponses par courrier électronique en fonction du contexte de l’incident, réduisant ainsi le temps que les utilisateurs doivent consacrer à la création de courriers électroniques.

  • Rédiger une réponse de conversation instantanée : permet aux représentants de créer une réponse en un seul clic à la conversation de messagerie numérique en cours à partir de sources de connaissances configurées par votre organisation.

  • Résumer un incident : Copilot fournit aux représentants un résumé d’un incident directement sur le formulaire d’incident, afin qu’ils puissent rapidement rattraper les détails importants d’un incident.

  • Résumer une conversation : Copilot fournit aux représentants un résumé d’une conversation à des moments clés tout au long du parcours du client, tels que les transferts de représentants virtuels, les transferts et à la demande.

  • Générer une ébauche de connaissances à partir de l’incident (version préliminaire) : Copilot génère une ébauche d’article de connaissances sous la forme d’une proposition basée sur les informations relatives à l’incident. Les représentants peuvent examiner et affiner le brouillon en donnant des instructions de révision à Copilot, puis l’enregistrer.

  • Résumer un enregistrement personnalisé : Copilot fournit aux représentants un résumé d’un enregistrement basé sur les champs que l’administrateur configure pour la table personnalisée afin que les représentants puissent rapidement rattraper les détails importants d’un enregistrement de support.

  • Générer des notes de résolution : Copilot fournit aux représentants un résumé des détails de l’incident, des courriers électroniques et des notes liés à l’incident dans l’onglet Poser une question, afin qu’ils puissent fermer rapidement le cas ou l’incident.

  • Prévision à l’aide d’une sélection de méthode optimale basée sur l’IA (préversion) : améliore les scénarios de prévision en recommandant et en appliquant intelligemment la méthode la plus appropriée en fonction des entrées de scénario. Les administrateurs peuvent choisir pendant l’installation et choisir entre l’approche traditionnelle et l’option basée sur l’IA. Les superviseurs peuvent également exécuter des prévisions à la demande au lieu d’attendre des exécutions planifiées, ce qui donne aux équipes une flexibilité et des insights plus rapides.

Quelle est l’utilisation prévue du système ?

Copilot dans Customer Servie est destiné à aider les représentants du service clientèle à travailler plus efficacement. Les représentants du service clientèle peuvent utiliser les réponses basées sur les connaissances de Copilot pour gagner du temps lors de la recherche d’articles de connaissances et de la rédaction de réponses. Les résumés Copilot sont conçus pour aider les représentants à se familiariser rapidement avec les incidents et les conversations. Le contenu généré par Copilot dans Customer Service n’est pas destiné à être utilisé sans examen ou supervision humaine.

Comment évalue-t-on Copilot in Customer Service ? Quelles mesures sont utilisées pour évaluer les performances ?

Copilot dans Customer Service a été évalué par rapport à des scénarios réels avec des clients du monde entier à chaque phase de sa conception, de son développement et de sa sortie. À l’aide d’une combinaison de recherches et d’études d’impact sur les entreprises, nous avons évalué diverses mesures quantitatives et qualitatives sur Copilot, notamment son exactitude, son utilité et la confiance des représentants. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.

Quelles sont les limites de Copilot dans Customer Service ? Comment les utilisateurs peuvent-ils minimiser l’impact des limitations de Copilot ?

Les fonctionnalités basées sur les connaissances de Copilot, telles que poser une question, écrire un e-mail et rédiger une réponse de chat, dépendent d’articles de fond de haute qualité et mis à jour. Sans ces articles de la base de connaissances, les utilisateurs sont plus susceptibles de rencontrer des réponses Copilot qui ne sont pas factuelles.

Pour réduire la probabilité de voir des réponses non factuelles de Copilot, il est important que Microsoft utilise des pratiques de gestion des connaissances robustes pour garantir que les connaissances métier qui se connectent à Copilot sont de haute qualité et à jour.

Quels facteurs et paramètres opérationnels permettent une utilisation efficace et responsable du système ?

Toujours vérifier les résultats de Copilot

Copilot est construit sur la technologie des grands modèles de langage, qui est de nature probabiliste. Lorsqu’il est présenté avec un morceau de texte d’entrée, le modèle calcule la probabilité de chaque mot dans ce texte compte tenu des mots qui l’ont précédé. Le modèle choisit ensuite le mot qui est le plus susceptible de suivre. Cependant, puisque le modèle est basé sur des probabilités, il ne peut pas dire avec une certitude absolue quel est le mot suivant correct. Au lieu de cela, il nous donne sa meilleure estimation basée sur la distribution de probabilité qu’il a apprise à partir des données sur lesquelles il a été formé. Copilot utilise une approche appelée fondation, qui consiste à ajouter des informations supplémentaires à l’entrée pour contextualiser la sortie dans votre organisation. Il utilise la recherche sémantique pour comprendre les entrées et récupérer les documents organisationnels internes pertinents et les résultats de recherche Web publics fiables, et guide le modèle linguistique pour répondre en fonction de ce contenu. Bien que cela soit utile pour s’assurer que les réponses de Copilot adhèrent aux données de l’organisation, il est important de toujours examiner les résultats produits par Copilot avant de les utiliser.

Tirer le meilleur parti de Copilot

Lorsque vous interagissez avec Copilot, il est important de garder à l’esprit que la structure des questions peut grandement affecter la réponse donnée par Copilot. Pour interagir efficacement avec Copilot, il est crucial de poser des questions claires et précises, de fournir un contexte pour aider l’IA à mieux comprendre votre intention, de poser une question à la fois et d’éviter les termes techniques pour plus de clarté et d’accessibilité.

Poser des questions claires et précises

Une intention claire est essentielle lorsque vous posez des questions, car elle a un impact direct sur la qualité de la réponse. Par exemple, poser une question générale comme « Pourquoi la machine à café du client ne démarre pas ? » est moins susceptible de produire une réponse utile par rapport à une question plus spécifique, telle que « Quelles mesures puis-je prendre pour déterminer pourquoi la machine à café du client ne démarre pas ? »

Toutefois, poser une question encore plus détaillée comme « Quelles mesures puis-je prendre pour déterminer pourquoi une machine à café Contoso 900 avec une cote de pression à 5 barres ne démarre pas ? » réduit l’étendue du problème et fournit plus de contexte, ce qui conduit à des réponses plus précises et ciblées.

Ajouter un contexte

L’ajout de contexte aide le système d’IA conversationnelle à mieux comprendre l’intention de l’utilisateur et à fournir des réponses plus précises et pertinentes. Sans contexte, le système peut mal comprendre la question de l’utilisateur ou fournir des réponses génériques ou non pertinentes.

Par exemple, « Pourquoi la machine à café ne démarre-t-elle pas ? » génère une réponse générique par rapport à une question avec plus de contexte, comme « Récemment, le client a lancé le mode de décalage sur sa machine à café et terminé la mise à l’échelle avec succès. Ils ont même reçu trois flashs du voyant d’alimentation à la fin pour confirmer que le détartrage était terminé. Pourquoi ne peuvent-ils plus démarrer la machine à café ?"

L’ajout de contexte de cette manière est important, car cela aide Copilot à mieux comprendre l’intention de l’utilisateur et à fournir des réponses plus précises et pertinentes.

Éviter les termes techniques si possible

Nous vous recommandons d’éviter d’utiliser des termes et des noms de ressources hautement techniques lorsque vous interagissez avec Copilot, car le système risque de ne pas toujours le comprendre correctement ou correctement. L’utilisation d’un langage naturel plus simple permet de s’assurer que le système peut comprendre correctement l’intention de l’utilisateur et fournir des réponses claires et utiles.

Par exemple, vous pouvez reformuler « Le client ne peut pas se connecter à la machine virtuelle après avoir modifié la configuration du pare-feu » en « Le client a modifié les règles de pare-feu sur leur machine virtuelle. Cependant, il ne peut plus se connecter via Secure Shell (SSH). Pouvez-vous vous aider ?"

En suivant les suggestions, les représentants peuvent améliorer leurs interactions avec Copilot et augmenter la probabilité d’en recevoir des réponses précises et confiantes.

Résumer ou développer une réponse

Parfois, la réponse de Copilot peut être plus longue que prévu. Cela peut être le cas lorsque le représentant est dans une conversation instantanée en direct avec un client et doit envoyer des réponses concises par rapport à l’envoi d’une réponse par e-mail. Dans ce cas, demander à Copilot de « résumer la réponse » entraîne une réponse concise à la question. De même, si vous avez besoin de plus de détails, demander à Copilot de « Fournir plus de détails » génère une réponse plus détaillée à votre question. Si la réponse est tronquée, la saisie de « continuer » affiche la partie restante de la réponse.

Comment puis-je influencer les réponses générées par Copilot ? Puis-je affiner le LLM sous-jacent ?

Il n’est pas possible de personnaliser directement le grand modèle de langue (LLM). Les réponses de Copilot peuvent être influencées par la mise à jour de la documentation source. Tous les contenus de commentaires des réponses Copilot sont stockés. Des rapports peuvent être créés à l’aide de ces données pour déterminer les sources de données qui doivent être mises à jour. Il est judicieux d’avoir des processus en place pour passer régulièrement en revue les données de commentaires et vérifier que les articles de connaissances fournissent les meilleures informations, les plus up-to-date à Copilot.

Quel est le modèle de sécurité des données pour Copilot ?

Copilot applique les contrôles d’accès en fonction du rôle (RBAC) définis et respecte toutes les constructions de sécurité existantes. Par conséquent, les représentants ne peuvent pas afficher les données auxquelles ils n’ont pas accès. En outre, seules les sources de données auxquelles le représentant a accès sont utilisées pour la génération de réponse Copilot.

Comment Copilot détermine-t-il si le contenu est offensant ou préjudiciable ?

Copilot détermine si le contenu est préjudiciable grâce à un système d’évaluation de la gravité basé sur des catégories distinctes de contenu répréhensible. Apprenez-en davantage des catégories de préjudice dans Azure AI Content Safety.

Où le traitement et la récupération des données se produisent-ils pour générer des réponses de copilote ?

Copilot n’appelle pas le service OpenAI public qui alimente ChatGPT. Copilot dans Customer Service utilise le Service Microsoft Azure OpenAI dans un locataire géré par Microsoft. L’intégralité du traitement et de la récupération des données s’effectue au sein des locataires gérés par Microsoft. De plus, les données des clients ne sont pas partagées et ne sont pas réinjectées dans les modèles publics.

Quelles sont les limites linguistiques pour les résumés que Copilot génère à partir d’incidents et de conversations ?

De nombreuses langues sont prises en charge dans les résumés générés par Copilot à partir d’incidents et de conversations. On s’attend à ce que la qualité de ces résumés soit la plus élevée en anglais, tandis que dans les autres langues, la qualité devrait s’améliorer avec le temps. En savoir plus sur les langues prises en charge dans Prise en charge des langues pour les fonctionnalités Copilot

Le modèle est-il testé et surveillé de façon continue ? Si oui, à quelle fréquence ? Quels tests sont effectués ?

La qualité du modèle est testée et le contenu nuisible à chaque fois qu’il y a un changement dans l’interaction du modèle ou dans sa version. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

À quelle fréquence le modèle est-il surveillé pour détecter la dégradation des performances ?

Azure OpenAI héberge et gère le modèle GPT IA générative. L’utilisation du modèle dans des scénarios de service clientèle est liée à des pratiques d’IA responsables et aux contrôles du Deployment Safety Board. Toute modification apportée aux versions du modèle ou aux invites sous-jacentes est validée pour sa qualité et son contenu nuisible. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.

Le produit ou le service utilise-t-il plus d’un modèle ou un système de modèles interdépendants ?

Différentes fonctionnalités du système peuvent utiliser différentes versions des modèles Azure OpenAI Service. En savoir plus dans Modèles Azure OpenAI Service.

Copilot utilise-t-il un produit ou un service modèle autre que Microsoft et la documentation de ce modèle est-elle disponible ?

Copilot est créé à l’aide d’Azure OpenAI, un service d’IA entièrement géré qui intègre OpenAI aux modèles de filtrage de contenu et de détection des abus développés par Microsoft. Pour en savoir plus, consultez Note de transparence pour Azure OpenAI.

Existe-t-il un processus défini pour communiquer les modifications apportées aux modèles, aux modèles en amont ou aux résultats utilisés à partir d’autres solutions d’IA/ML ou de modèles ?

Toute modification prévue des fonctionnalités Copilot est communiquée via une documentation publique. Toutefois, les modifications relatives à la version du modèle ou aux invites sont régies par les processus internes d’IA responsable. Ces changements ne sont pas communiqués, car il s’agit d’améliorations fonctionnelles incrémentielles et continues.

Les commentaires des utilisateurs sont-ils disponibles pour Microsoft afin d’améliorer le produit ?

Non

Est-ce que Microsoft a des politiques et des procédures qui définissent et différencient les différents rôles et responsabilités humains lorsqu’ils interagissent avec les systèmes d’IA ou les surveillent ?

Oui. Dans le processus d’IA responsable, toutes les parties prenantes et tous les utilisateurs impliqués sont pris en compte, et leur utilisation ou leur utilisation involontaire du système est discutée. Sur la base des scénarios identifiés, les atténuations requises sont intégrées dans le produit ou via la documentation. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Est-ce que Microsoft identifie et documente des approches pour mobiliser, saisir et intégrer les commentaires d’autres utilisateurs finaux et d’intervenants clés afin d’aider à la surveillance continue des impacts potentiels et des risques émergents ?

Oui. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Est-ce que Microsoft documente, met en pratique et mesure les plans de réponse aux incidents pour les incidents du système d’IA, y compris la mesure de la réponse et des temps d’arrêt?

Oui. Le processus IA responsable exige que l’équipe dispose d’un plan de réponse aux incidents pour les problèmes d’IA, comme le processus pour les problèmes fonctionnels. Les équipes de fonctionnalités surveillent activement les performances et la fiabilité du système. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Est-ce que Microsoft établit des procédures pour partager l’information sur les incidences d’erreurs et les impacts négatifs avec les intervenants, les exploitants, les praticiens, les utilisateurs et les parties concernées?

Oui. Pour les problèmes de gravité élevée, les équipes de fonctionnalité doivent communiquer la panne aux clients concernés.

Microsoft mesure-t-il et surveille-t-il les performances du système en temps réel pour permettre une réponse rapide lorsqu’un incident du système d’IA est détecté ?

Oui. Les équipes de fonctionnalité surveillent en permanence les performances et la fiabilité du système.

Est-ce que Microsoft teste la qualité des explications des systèmes avec les utilisateurs finaux et les autres parties prenantes ?

Oui. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Microsoft a-t-il établi des politiques et des procédures pour surveiller et traiter les performances et la fiabilité du système de modèle, y compris les problèmes de biais et de sécurité tout au long du cycle de vie du modèle, lors de l’évaluation des risques et des avantages négatifs des systèmes d’IA ?

Oui. Pour en savoir plus, consultez Rapport de transparence de l’IA responsable.

Est-ce que Microsoft effectue des évaluations de l’équité pour gérer les formes de biais informatiques et statistiques ?

Oui. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Microsoft surveille-t-il les sorties du système pour détecter des problèmes de performances ou de biais ?

Oui. Les filtres de modération sont appliqués en plusieurs couches, y compris en sortie, pour s’assurer qu’il n’y a pas de contenu nuisible dans la réponse. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Quel est le niveau de résilience du fonctionnement du modèle ? Par exemple, existe-t-il un plan de reprise après sinistre et d’urgence pour les cas où le modèle n’est pas disponible ?

Comme tous les services Azure, la sauvegarde et la récupération sont prises en charge via plusieurs centres de données pour une haute disponibilité.

Le modèle dépend-il d’outils ou de solutions tiers, intégré dans ceux-ci, ce qui rend difficile la migration du modèle vers un environnement différent (y compris des variables telles que le fournisseur d’hébergement, le matériel, les systèmes logiciels) qui entraveraient l’explicabilité du modèle ?

Non

Existe-t-il un modèle établi de politique de gouvernance ?

Oui. Azure OpenAI prend en charge une stratégie de gouvernance établie. Pour en savoir plus, consultez le Rapport sur la transparence de l’IA responsable.

Existe-t-il des protocoles établis et documentés (autorisation, durée, type) et des contrôles d’accès pour les ensembles de données de formation ou de production contenant des informations personnelles conformément aux politiques de confidentialité et de gouvernance des données ?

Actuellement, il n’y a pas d’entraînement du modèle, donc aucune exigence concernant le jeu de données. Toutefois, lorsqu’un représentant du service client s’engage avec Copilot, selon la fonctionnalité, les données contextuelles (cas ou conversation) sont utilisées pour générer une réponse.

Les divulgations d’informations personnelles et l’inférence d’attributs sensibles ou protégés par la loi sont-elles surveillées ?

Oui. La révision de la confidentialité est effectuée pour chaque fonctionnalité.

Oui. L’examen juridique est effectué pour chaque fonctionnalité afin d’aider à respecter les exigences réglementaires et d’autres questions juridiques.

Utiliser les fonctionnalités de Copilot
Utiliser Copilot pour générer des brouillons d’articles de base de connaissances à partir des incidents
Disponibilité de Copilot dans la région
FAQ sur la sécurité et la confidentialité des données Copilot dans Microsoft Power Platform