Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: Dynamics 365 Contact Center - eingebettet, Dynamics 365 Contact Center - eigenständig und Dynamics 365 Customer Service
Dieser FAQ-Artikel hilft bei der Beantwortung der Fragen rund um den verantwortungsvollen Einsatz von KI in Copilot-Features in Customer Service.
Was ist Copilot in Dynamics 365 Customer Service?
Copilot ist ein KI-gestütztes Tool, das die Erfahrungen der Kundenservicemitarbeitenden (Servicemitarbeitenden oder Mitarbeitenden) in Dynamics 365 Customer Service völlig verändert. Mit KI-gestützter Unterstützung in Echtzeit können Mitarbeiter Probleme schneller lösen, Fälle effizienter bearbeiten und zeitaufwändige Aufgaben automatisieren, sodass sie sich auf die Bereitstellung hochwertigen Services für ihre Kunden konzentrieren können.
Welche Funktionalitäten bietet das System?
Copilot stellt die folgenden Hauptfeatures bereit:
Frage stellen: Ist die erste Registerkarte, die Servicemitarbeitende sehen, wenn sie den Copilot-Hilfebereich aktivieren. Es handelt sich um eine Konversationsschnittstelle mit Copilot, die dabei hilft, kontextbezogene Antworten auf die Fragen der Vertreter zu geben. Die Antworten von Copilot basieren auf internen und externen Wissensquellen, die Ihre Organisation während der Einrichtung bereitgestellt hat.
Eine E-Mail schreiben: Ist die zweite Registerkarte im Copilot-Hilfebereich und hilft Mitarbeitenden dabei, schnell E-Mail-Antworten basierend auf dem Kontext der Anfrage zu erstellen, wodurch die Zeit für die Erstellung von E-Mails reduziert wird.
Eine Chatantwort erstellen: Ermöglicht es Mitarbeitenden, mit einem einzigen Klick eine Antwort auf die laufende E-Messaging-Unterhaltung aus von Ihrer Organisation konfigurierten Wissensquellen zu erstellen.
Anfrage zusammenfassen: Copilot stellt Mitarbeitenden direkt im Anfrageformular eine Zusammenfassung einer Anfrage zur Verfügung, sodass sie sich schnell über die wichtigen Details informieren können.
Unterhaltung zusammenfassen: Copilot stellt Mitarbeitenden an wichtigen Punkten im gesamten Kundenkontaktverlauf eine Zusammenfassung einer Unterhaltung zur Verfügung, z. B. bei der virtuellen Mitarbeiterübergabe, bei Weiterleitungen und bei Bedarf.
Wissensentwurf aus Anfrage generieren (Vorschauversion): Copilot generiert einen Wissensartikelentwurf als Vorschlag, der auf Informationen aus der Anfrage basiert. Mitarbeiter können den Entwurf überprüfen und verfeinern, indem sie Copilot Überarbeitungsanweisungen geben und ihn dann speichern.
Benutzerdefinierten Datensatz zusammenfassen: Copilot stellt Mitarbeitenden eine Zusammenfassung eines Datensatzes basierend auf Feldern zur Verfügung, welche die Administrationsfachkraft für die benutzerdefinierte Tabelle konfiguriert, damit die Mitarbeitenden schnell die wichtigen Details eines Supportdatensatzes abrufen können.
Abschlussnotizen erstellen: Copilot stellt Mitarbeitenden eine Zusammenfassung der Anfragedetails, E-Mails und Notizen, die mit der Anfrage verbunden sind, auf der Registerkarte Frage stellen bereit, damit sie die Anfrage bzw. den Vorfall schneller abschließen können.
Prognose mit KI-gesteuerter optimaler Methodenauswahl (Vorschau): Verbessert Prognoseszenarien durch intelligente Empfehlung und Anwendung der am besten geeigneten Methode basierend auf Szenarioeingaben. Administratoren können sich während des Setups anmelden und zwischen dem herkömmlichen Ansatz und der KI-basierten Option wählen. Vorgesetzte können auch Prognosen nach Bedarf ausführen, anstatt auf geplante Läufe zu warten, was Teams Flexibilität und schnellere Einblicke bietet.
Was ist der Verwendungszweck des Systems?
Der Copilot in Customer Service soll dazu beitragen, dass Kundenservicemitarbeitende effizienter und effektiver arbeiten. Kundenservicemitarbeitende können die wissensbasierten Antworten von Copilot nutzen, um Zeit bei der Suche nach Wissensartikeln und dem Verfassen von Antworten zu sparen. Copilot-Zusammenfassungen sollen Mitarbeitende dabei unterstützen, Anfragen und Unterhaltungen schnell zu bearbeiten. Von Copilot in Customer Service generierte Inhalte dürfen nicht ohne menschliche Überprüfung oder Aufsicht verwendet werden.
Wie wird Copilot in Customer Service bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?
Copilot in Customer Service wurde in jeder Phase seines Entwurfs, seiner Entwicklung und seiner Veröffentlichung anhand realer Szenarien mit Kundschaft auf der ganzen Welt bewertet. Mithilfe einer Kombination aus Forschung und Studien zu den geschäftlichen Auswirkungen haben wir uns verschiedene quantitative und qualitative Metriken zu Copilot angesehen, einschließlich zu seiner Genauigkeit, seiner Nützlichkeit und zum Mitarbeitervertrauen. Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Welche Einschränkungen hat Copilot in Customer Service? Wie können Benutzende die Auswirkungen von Copilot-Einschränkungen eindämmen?
Die wissensbasierten Fähigkeiten von Copilot, wie zum Beispiel Fragen stellen, eine E-Mail schreiben und eine Chatantwort entwerfen, sind von qualitativ hochwertigen und aktuellen Wissensartikeln zur Untermauerung abhängig. Ohne diese Wissensartikel stoßen Benutzende mit höherer Wahrscheinlichkeit auf Copilot-Antworten, die nicht korrekt sind.
Um die Wahrscheinlichkeit zu minimieren, dass nicht faktenbezogene Antworten von Copilot angezeigt werden, ist es wichtig, dass Microsoft robuste Wissensmanagementpraktiken verwendet, um sicherzustellen, dass das Geschäftswissen, das sich mit Copilot verbindet, qualitativ hoch und auf dem neuesten Stand ist.
Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?
Überprüfen Sie die Ergebnisse von Copilot immer
Copilot basiert auf einer großen Sprachmodelltechnologie, die probabilistischer Natur ist. Wenn ein Eingabetext angezeigt wird, berechnet das Modell die Wahrscheinlichkeit jedes Wortes in diesem Text unter Berücksichtigung der davor stehenden Wörter. Das Modell wählt dann das Wort aus, das am wahrscheinlichsten folgt. Da das Modell jedoch auf Wahrscheinlichkeiten basiert, kann es nicht mit absoluter Sicherheit sagen, welches nächste Wort das richtige ist. Stattdessen gibt es seine beste Schätzung basierend auf der Wahrscheinlichkeitsverteilung ab, die es aus den Daten, mit denen es trainiert wurde, gelernt hat. Copilot verwendet einen Ansatz namens Grounding, bei dem der Eingabe zusätzliche Informationen hinzugefügt werden, um die Ausgabe für Ihr Unternehmen in einen Kontext zu setzen. Es verwendet eine semantische Suche, um die Eingabe zu verstehen und relevante interne Dokumente der Organisation sowie vertrauenswürdige öffentliche Websuchergebnisse abzurufen, und leitet das Sprachmodell dazu an, auf der Grundlage dieser Inhalte zu reagieren. Dies ist zwar hilfreich, um sicherzustellen, dass die Copilot-Antworten den Daten der Organisation entsprechen, es ist jedoch wichtig, die von Copilot generierten Ergebnisse vor der Verwendung immer zu überprüfen.
Copilot bestmöglich nutzen
Bedenken Sie bei der Arbeit mit Copilot, dass die Struktur der Fragen einen großen Einfluss auf die Antwort von Copilot haben kann. Für eine effektive Arbeit mit Copilot ist es wichtig, klare und spezifische Fragen zu stellen, Kontext bereitzustellen, damit die KI Ihre Absicht besser versteht, eine Frage nach der anderen zu stellen und Fachbegriffe zu vermeiden, um Klarheit und Zugänglichkeit zu gewährleisten.
Klare und konkrete Fragen stellen
Beim Stellen von Fragen ist eine klare Absicht unerlässlich, da sie sich direkt auf die Qualität der Antwort auswirkt. Beispielsweise ist es höchstwahrscheinlich nicht erfolgreich, eine allgemeine Frage wie "Warum startet die Kaffeemaschine des Kunden nicht?" zu stellen, als eine spezifischere Frage wie "Welche Schritte kann ich unternehmen, um herauszufinden, warum die Kaffeemaschine des Kunden nicht startet?"
Eine noch detailliertere Frage wie "Welche Schritte kann ich unternehmen, um zu bestimmen, warum eine Contoso 900-Kaffeemaschine mit einer 5-Bar-Druckbewertung nicht gestartet wird?" beschränkt den Umfang des Problems und bietet mehr Kontext, was zu genaueren und gezielteren Antworten führt.
Kontext hinzufügen
Das Hinzufügen von Kontext hilft dem Unterhaltungs-KI-System, die Absicht des Benutzenden besser zu verstehen und genauere und relevantere Antworten bereitzustellen. Ohne Kontext könnte das System die Frage des Benutzenden falsch verstehen oder allgemeine oder irrelevante Antworten geben.
"Zum Beispiel, die Frage "Warum startet die Kaffeemaschine nicht?" führt zu einer generischen Antwort im Vergleich zu einer Frage mit mehr Kontext wie: "Kürzlich hat der Kunde den Entkalkungsmodus auf seiner Kaffeemaschine eingeschaltet und den Entkalkungsvorgang erfolgreich abgeschlossen." Am Ende blinkte die Betriebsanzeige sogar dreimal, um zu bestätigen, dass die Entkalkung abgeschlossen war. Warum kann die Kaffeemaschine nicht mehr gestartet werden? zu einer allgemeinen Antwort.
Das Hinzufügen von derartigem Kontext hilft Copilot, die Absicht des Benutzenden besser zu verstehen und genauere und relevantere Antworten bereitzustellen.
Fachbegriffe nach Möglichkeit vermeiden
Es wird empfohlen, die Verwendung von hochtechnischen Begriffen und Ressourcennamen zu vermeiden, wenn Sie mit Copilot interagieren, da das System es möglicherweise nicht immer genau oder angemessen versteht. Die Verwendung einer einfacheren, natürlichen Sprache trägt dazu bei, dass das System die Absicht des Benutzenden richtig verstehen und klare, hilfreiche Antworten geben kann.
So könnten Sie beispielsweise "Der Kunde kann sich nach der Änderung der Firewallkonfiguration nicht per SSH in die VM einloggen" in "Der Kunde hat die Firewallregeln auf seiner VM geändert. Er kann jedoch keine Verbindung mehr über Secure Shell (SSH) herstellen. Können Sie helfen?"
Wenn sich Mitarbeitende an die Vorschläge halten, können sie ihre Interaktionen mit Copilot verbessern und die Wahrscheinlichkeit erhöhen, dass sie korrekte und zuverlässige Antworten von ihm erhalten.
Eine Antwort zusammenfassen oder erweitern
Manchmal ist die Antwort von Copilot länger als erwartet. Dies könnte der Fall sein, wenn sich der Mitarbeiter in einer Live-Chat-Konversation mit einem Kunden befindet und im Vergleich zum Senden einer Antwort per E-Mail prägnante Antworten senden muss. In solchen Fällen ergibt das Bitten von Copilot, die Antwort zusammenzufassen, eine präzise Antwort auf die Frage. Wenn mehr Details benötigt werden, können Sie Copilot bitten, "Weitere Details bereitstellen", um eine detailliertere Antwort auf Ihre Frage zu erhalten. Wenn die Antwort abgeschnitten wird, wird der verbleibende Teil der Antwort angezeigt, wenn Sie „continue” eingeben.
Wie kann ich die von Copilot generierten Antworten beeinflussen? Kann ich die zugrunde liegende LLM optimieren?
Es ist nicht möglich, das große Sprachmodell (LLM) direkt anzupassen. Die Antworten von Copilot können durch die Aktualisierung der Quelldokumentation beeinflusst werden. Alle Feedbackinhalte von Copilot-Antworten werden gespeichert. Mithilfe dieser Daten können Berichte erstellt werden, um festzustellen, welche Datenquellen aktualisiert werden müssen. Es ist ratsam, Prozesse einzurichten, um die Feedbackdaten regelmäßig zu überprüfen und sicherzustellen, dass Wissensartikel die besten und aktuellsten Informationen für Copilot bereitstellen.
Welches Datensicherheitsmodell nutzt Copilot?
Copilot erzwingt die definierten rollenbasierten Zugriffssteuerungen (RBAC) und hält alle vorhandenen Sicherheitskonstrukte ein. Daher können Mitarbeitende keine Daten anzeigen, auf die sie keinen Zugriff haben. Darüber hinaus werden nur Datenquellen verwendet, auf die der Vertreter Zugriff hat, für die Copilot-Reaktionsgenerierung.
Wie stellt Copilot fest, ob Inhalte anstößig oder schädlich sind?
Copilot bestimmt, ob Inhalte schädlich sind, und zwar durch ein Schweregrad-Bewertungssystem, das auf unterschiedlichen Kategorien anstößiger Inhalte basiert. Weitere Informationen finden Sie in den Kategorien "Schaden" in Azure AI Content Safety.
Wo erfolgt die Datenverarbeitung und der Datenabruf für die Generierung von Copilot-Antworten?
Copilot ruft nicht den öffentlichen OpenAI-Dienst auf, der ChatGPT unterstützt. Copilot in Customer Service verwendet den Microsoft Azure OpenAI Dienst in einem von Microsoft verwalteten Mandanten. Die gesamte Datenverarbeitung und der Datenabruf erfolgen in von Microsoft verwalteten Mandanten. Darüber hinaus werden Kundendaten nicht geteilt und nicht in öffentliche Modelle zurückgeführt.
Welche sprachlichen Einschränkungen gelten für Zusammenfassungen, die Copilot aus Vorgängen und Unterhaltungen generiert?
Viele Sprachen werden in von Copilot generierten Zusammenfassungen aus Anfragen und Unterhaltungen unterstützt. Es wird erwartet, dass die Qualität dieser Zusammenfassungen im Englischen am höchsten ist, während in den anderen Sprachen erwartet wird, dass sich die Qualität im Laufe der Zeit verbessert. Weitere Informationen zu den unterstützten Sprachen finden Sie unter Sprachunterstützung für Copilot-Features
Wird das Modell laufend getestet und überwacht? Wenn ja, wie oft? Welche Tests werden durchgeführt?
Das Modell wird jedes Mal, wenn es eine Änderung an der Modellinteraktion oder -Version gibt, auf Qualität und schädliche Inhalte getestet. Erfahren Sie mehr im Transparenzbericht zu verantwortungsvoller KI.
Wie häufig wird das Modell überwacht, um Leistungseinbußen zu erkennen?
Azure OpenAI hosten und verwalten das generative AI GPT-Modell. Die Verwendung des Modells in Kundenserviceszenarien ist an verantwortungsvolle KI-Praktiken und Überprüfungen durch das Deployment Safety Board gebunden. Alle Änderungen an Modellversionen oder zugrunde liegenden Eingabeaufforderungen werden auf Qualität und schädliche Inhalte überprüft. Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Verwendet das Produkt oder die Dienstleistung mehr als ein Modell oder ein System von voneinander abhängigen Modellen?
Unterschiedliche Features im System können unterschiedliche Versionen von Azure OpenAI-Servicemodellen verwenden. Weitere Informationen finden Sie unter Azure OpenAI-Servicemodelle.
Verwendet Copilot ein nicht von Microsoft stammendes Modellprodukt oder einen Dienst, und ist die Dokumentation für dieses Modell verfügbar?
Copilot basiert auf Azure OpenAI, einem vollständig verwalteten KI-Dienst, der OpenAI mit von Microsoft entwickelten Modellen zur Inhaltsfilterung und Missbrauchserkennung integriert. Mehr erfahren Sie unter Transparenzhinweis für Azure OpenAI-Dienst.
Gibt es einen festgelegten Prozess für die Kommunikation von Änderungen an Modellen, vorgelagerten Modellen oder Ausgaben, die von anderen KI/ML- oder Modelllösungen verwendet werden?
Alle geplanten Änderungen an den Copilot-Funktionen werden über eine öffentliche Dokumentation kommuniziert. Änderungen in Bezug auf die Modellversion oder Eingabeaufforderungen werden jedoch von den internen verantwortlichen KI-Prozessen geregelt. Diese Änderungen werden nicht kommuniziert, da es sich um inkrementelle und fortlaufende funktionale Verbesserungen handelt.
Steht Microsoft wörtliches Feedback der Benutzer zur Verfügung, um das Produkt zu verbessern?
Nein.
Verfügt Microsoft über Richtlinien und Verfahren, die die verschiedenen menschlichen Rollen und Verantwortlichkeiten bei der Interaktion mit oder der Überwachung von KI-Systemen definieren und differenzieren?
Ja Im verantwortungsvollen KI-Prozess werden alle beteiligten Stakeholder und Nutzer betrachtet und deren Nutzung oder unbeabsichtigte Nutzung des Systems diskutiert. Basierend auf den identifizierten Szenarien werden die erforderlichen Risikominderungen innerhalb des Produkts oder über die Dokumentation eingeführt. Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Identifiziert und dokumentiert Microsoft Ansätze zur Einbindung, Erfassung und Einbeziehung von Beiträgen anderer Endnutzer und wichtiger Interessengruppen, um die kontinuierliche Überwachung potenzieller Auswirkungen und neu auftretender Risiken zu unterstützen?
Ja Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Dokumentiert, praktiziert und misst Microsoft Incident-Response-Pläne für KI-Systemvorfälle, einschließlich der Messung von Reaktions- und Ausfallzeiten?
Ja. Der verantwortliche KI-Prozess erfordert, dass das Team einen Plan für die Reaktion auf Vorfälle für KI-Probleme hat, ähnlich wie bei funktionalen Problemen. Die Featureteams überwachen aktiv die Leistung und Zuverlässigkeit des Systems. Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Richtet Microsoft Verfahren für den Austausch von Informationen über Fehler und negative Auswirkungen mit relevanten Stakeholdern, Bedienern, Fachkräften, Benutzenden und Betroffenen ein?
Ja Bei Problemen mit hohem Schweregrad müssen Feature-Teams den Ausfall mit den betroffenen Kunden kommunizieren.
Misst und überwacht Microsoft die Systemleistung in Echtzeit, um eine schnelle Reaktion zu ermöglichen, wenn ein KI-Systemvorfall erkannt wird?
Ja Die Feature-Teams überwachen kontinuierlich die Leistung und Zuverlässigkeit des Systems.
Testet Microsoft die Qualität der Systemerklärungen mit Endnutzern und anderen Stakeholdern?
Ja Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Verfügt Microsoft über etablierte Richtlinien und Verfahren zur Überwachung und Bewältigung der Leistung und Vertrauenswürdigkeit von Modellsystemen, einschließlich Verzerrungen und Sicherheitsproblemen über den gesamten Lebenszyklus des Modells, bei der Bewertung von KI-Systemen auf negative Risiken und Vorteile?
Ja. Weitere Informationen finden Sie unter Transparenzbericht zu verantwortungsvoller KI.
Führt Microsoft Fairness-Bewertungen durch, um computergestützte und statistische Formen von Verzerrungen zu bewältigen?
Ja Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Überwacht Microsoft Systemausgaben auf Leistungs- oder Verzerrungsprobleme?
Ja Moderationsfilter werden auf mehreren Ebenen angewendet, auch bei der Ausgabe, um sicherzustellen, dass die Antwort keine schädlichen Inhalte enthält. Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Wie hoch ist die Resilienz im Betrieb des Modells? Gibt es beispielsweise einen Notfallwiederherstellungs- und Notfallplan für Instanzen, wenn das Modell nicht verfügbar ist?
Ähnlich wie bei allen Azure-Diensten werden Backup und Recovery über mehrere Rechenzentren unterstützt, um eine hohe Verfügbarkeit zu gewährleisten.
Ist das Modell von Tools oder Lösungen von Drittanbietern abhängig oder in diese eingebettet, was die Migration des Modells in eine andere Umgebung (einschließlich Variablen wie Hosting-Provider, Hardware, Softwaresysteme) erschwert, die die Erklärbarkeit des Modells behindern würden?
Nein.
Gibt es eine etablierte Modell-Governance-Richtlinie?
Ja. Azure OpenAI unterstützt eine etablierte Governance-Richtlinie. Weitere Informationen finden Sie im Transparenzbericht zu verantwortungsvoller KI.
Gibt es etablierte und dokumentierte Protokolle (Autorisierung, Dauer, Typ) und Zugriffskontrollen für Schulungs- oder Produktionsdatensätze, die personenbezogene Daten enthalten, in Übereinstimmung mit Datenschutz- und Data-Governance-Richtlinien?
Derzeit gibt es kein Modelltraining, daher auch keine Anforderungen an das Dataset. Wenn ein Kundendienstmitarbeiter jedoch mit Copilot in Verbindung steht, werden abhängig von der Funktion Kontextdaten (Fall oder Chat) verwendet, um eine Antwort zu generieren.
Werden PII-Offenlegungen und Rückschlüsse auf sensible oder rechtlich geschützte Attribute überwacht?
Ja. Die Datenschutzüberprüfung wird für jedes Feature durchgeführt.
Verfügt Microsoft über einen Prozess, um rechtliche und regulatorische Fragen und Anforderungen zu berücksichtigen, die für die Branche, den Geschäftszweck und die Anwendungsumgebung der eingesetzten KI-Systeme spezifisch sind?
Ja. Für jedes Feature wird eine rechtliche Überprüfung durchgeführt, um behördliche Anforderungen und andere rechtliche Angelegenheiten zu erfüllen.
Verwandte Informationen
Copilot-Funktionen verwenden
Copilot zur Generierung von Wissensentwürfen aus Vorgängen verwenden
Regionale Verfügbarkeit von Copilot
Häufig gestellte Fragen zur Datensicherheit und zum Datenschutz von Copilot für Microsoft Power Platform