Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy : Dynamics 365 Contact Center—wbudowane, Dynamics 365 Contact Center—standalone i Dynamics 365 Customer Service
Ten artykuł FAQ pomaga odpowiedzieć na pytania dotyczące odpowiedzialnego korzystania ze sztucznej inteligencji w funkcjach pomocnika w usłudze Customer Service.
Czym jest Copilot w Dynamics 365 Customer Service?
Copilot to narzędzie oparte na sztucznej inteligencji, które rewolucjonizuje środowisko przedstawicieli działu obsługi klienta (przedstawicieli działu obsługi lub przedstawicieli) w usłudze Dynamics 365 Customer Service. Zapewnia ona pomoc w zakresie sztucznej inteligencji w czasie rzeczywistym, która może pomóc przedstawicielom w szybszym rozwiązywaniu problemów, efektywniej obsługiwać przypadki i automatyzować czasochłonne zadania, co pozwala im skupić się na dostarczaniu wysokiej jakości usług klientom.
Jakie są możliwości systemu?
Copilot oferuje następujące główne funkcje:
Zadaj pytanie: Jest to pierwsza zakładka, którą przedstawiciele działu obsługi widzą po aktywacji panelu pomocy Copilot. Jest to interfejs konwersacyjny w aplikacji Copilot, który pomaga dostarczać kontekstowe odpowiedzi na pytania przedstawicieli. Odpowiedzi Copilot opierają się zarówno na wewnętrznych, jak i zewnętrznych źródłach wiedzy dostarczonych przez organizację podczas konfiguracji.
Napisz wiadomość e-mail: Druga zakładka w panelu pomocy Copilot pomaga przedstawicielom szybko tworzyć odpowiedzi e-mail w oparciu o kontekst sprawy, skracając czas, jaki użytkownicy muszą poświęcić na tworzenie wiadomości e-mail.
Przygotowanie odpowiedzi na czacie: Umożliwia przedstawicielom tworzenie odpowiedzi za pomocą jednego kliknięcia na trwającą konwersację za pomocą wiadomości cyfrowych ze źródeł wiedzy skonfigurowanych przez organizację.
Podsumowanie sprawy: Copilot zapewnia przedstawicielom podsumowanie sprawy bezpośrednio w formularzu sprawy, dzięki czemu mogą oni szybko zapoznać się z ważnymi szczegółami sprawy.
Podsumowanie rozmowy: Copilot zapewnia przedstawicielom podsumowanie rozmowy w kluczowych punktach podróży klienta, takich jak przekazanie wirtualnego przedstawiciela, transfery i na żądanie.
Generowanie wersji roboczej wiedzy z poziomu sprawy (wersja zapoznawcza): Copilot generuje roboczą wersję artykułu merytorycznego jako propozycje oparte na informacjach dotyczących sprawy. Przedstawiciele mogą przejrzeć i udoskonalić wersję roboczą poprzez przekazanie instrukcji do aplikacji Copilot, a następnie zapisać tę wersję.
Podsumowywanie rekordu niestandardowego: Copilot udostępnia przedstawicielom podsumowanie rekordu na podstawie pól skonfigurowanych przez administratora dla tabeli niestandardowej, dzięki czemu przedstawiciele mogą szybko zapoznać się z ważnymi szczegółami rekordu pomocy technicznej.
Generuj notatki dotyczące rozwiązania: Copilot udostępnia przedstawicielom podsumowanie szczegółów sprawy, wiadomości e-mail i notatek powiązanych ze sprawą na karcie Zadaj pytanie , dzięki czemu mogą szybko zamknąć sprawę lub zdarzenie.
Prognozowanie przy użyciu optymalnego wyboru metody opartej na sztucznej inteligencji (wersja zapoznawcza): ulepsza scenariusze prognozy, inteligentnie zalecając i stosując najbardziej odpowiednią metodę na podstawie danych wejściowych scenariusza. Administratorzy mogą wyrazić zgodę podczas instalacji i wybrać między tradycyjnym podejściem a opcją opartą na sztucznej inteligencji. Opiekunowie mogą również wykonywać prognozy na żądanie zamiast czekać na zaplanowane sesje, co zapewnia zespołom elastyczność i szybsze pozyskiwanie informacji.
Jakie jest przeznaczenie systemu?
Copilot w Customer Service ma na celu pomóc przedstawicielom działu obsługi klienta pracować wydajniej i skuteczniej. Przedstawiciele działu obsługi klienta mogą korzystać z odpowiedzi opartych na wiedzy Copilot, aby zaoszczędzić czas na przeszukiwanie artykułów wiedzy i przygotowywanie odpowiedzi. Podsumowania Copilot mają na celu wspieranie przedstawicieli w szybkim zapoznawaniu się ze sprawami i rozmowami. Treści generowane przez Copilot w Customer Service nie są przeznaczone do użytku bez weryfikacji lub nadzoru ze strony człowieka.
Jak oceniany jest Copilot w Customer Service? Jakie metryki są używane do oceny wydajności?
Copilot w Customer Service został oceniony pod kątem rzeczywistych scenariuszy z klientami na całym świecie na każdym etapie jego projektowania, rozwoju i wydania. Korzystając z połączenia badań i badań wpływu na biznes, oceniliśmy różne ilościowe i jakościowe wskaźniki dotyczące Copilot, w tym ich dokładność, przydatność i zaufanie przedstawicieli. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.
Jakie są ograniczenia Copilot w Customer Service? Jak użytkownicy mogą zminimalizować wpływ ograniczeń Copilota?
Funkcje Copilota oparte na wiedzy, takie jak zadawanie pytań, pisanie wiadomości e-mail i przygotowywanie odpowiedzi na czacie, zależą od wysokiej jakości i aktualnych artykułów wiedzy. Bez tych artykułów użytkownicy są bardziej narażeni na napotkanie odpowiedzi Copilot, które nie są oparte na faktach.
Aby zminimalizować prawdopodobieństwo występowania nieistotnych odpowiedzi od Copilot, ważne jest, aby firma Microsoft stosuje niezawodne praktyki zarządzania wiedzą, aby zapewnić wiedzę biznesową, która łączy się z Copilot, jest wysokiej jakości i aktualna.
Jakie czynniki i ustawienia operacyjne pozwalają na skuteczne i odpowiedzialne korzystanie z systemu?
Zawsze sprawdzaj wyniki z Copilot
Copilot opiera się na technologii dużych modeli językowych, które mają charakter probabilistyczny. Po przedstawieniu fragmentu tekstu wejściowego model oblicza prawdopodobieństwo wystąpienia każdego słowa w tym tekście, biorąc pod uwagę słowa, które pojawiły się przed nim. Następnie model wybiera słowo, które jest najbardziej prawdopodobne. Ponieważ jednak model opiera się na prawdopodobieństwie, nie może on z całkowitą pewnością powiedzieć, jakie jest prawidłowe następne słowo. Zamiast tego daje nam swoje najlepsze przypuszczenie w oparciu o rozkład prawdopodobieństwa, którego nauczył się z danych, na których został przeszkolony. Copilot stosuje podejście zwane uziemieniem, które polega na dodaniu dodatkowych informacji do danych wejściowych w celu kontekstualizacji danych wyjściowych dla organizacji. Wykorzystuje wyszukiwanie semantyczne, aby zrozumieć dane wejściowe i pobrać odpowiednie wewnętrzne dokumenty organizacyjne oraz zaufane publiczne wyniki wyszukiwania w sieci, a także kieruje modelem językowym, aby odpowiadał na podstawie tej treści. Chociaż jest to pomocne w zapewnieniu, że odpowiedzi Copilot są zgodne z danymi organizacyjnymi, ważne jest, aby zawsze sprawdzać wyniki uzyskane przez Copilot przed ich użyciem.
Jak najlepiej wykorzystać Copilot
Podczas interakcji z Copilotem należy pamiętać, że struktura pytań może znacząco wpłynąć na odpowiedź udzielaną przez Copilota. Aby skutecznie wchodzić w interakcje z Copilotem, kluczowe jest zadawanie jasnych i konkretnych pytań, dostarczanie kontekstu, aby pomóc sztucznej inteligencji lepiej zrozumieć twoje intencje, zadawanie jednego pytania na raz i unikanie terminów technicznych w celu zapewnienia jasności i dostępności.
Zadawaj jasne i konkretne pytania
Jasna intencja jest niezbędna przy zadawaniu pytań, ponieważ ma bezpośredni wpływ na jakość odpowiedzi. Na przykład zadając szerokie pytanie, takie jak "Dlaczego ekspres do kawy klienta nie uruchamia się?" jest mniej prawdopodobne, aby uzyskać przydatną odpowiedź w porównaniu z bardziej szczegółowym pytaniem, na przykład "Jakie kroki można wykonać, aby ustalić, dlaczego ekspres do kawy klienta nie uruchamia się?"
Jednak zadając jeszcze bardziej szczegółowe pytanie, takie jak "Jakie kroki mogę podjąć, aby określić, dlaczego ekspres do kawy Contoso 900 z ciśnieniem rzędu 5 bar nie uruchamia się?", zawęża zakres problemu i zapewnia więcej kontekstu, co prowadzi do dokładniejszej i bardziej ukierunkowanej odpowiedzi.
Dodaj kontekst
Dodanie kontekstu pomaga konwersacyjnemu systemowi sztucznej inteligencji lepiej zrozumieć intencje użytkownika i zapewnić dokładniejsze i trafniejsze odpowiedzi. Bez kontekstu system może źle zrozumieć pytanie użytkownika lub udzielić ogólnych lub nieistotnych odpowiedzi.
Na przykład "Dlaczego ekspres do kawy nie uruchamia się?" powoduje ogólną odpowiedź w porównaniu z pytaniem z większym kontekstem, np. "Ostatnio klient zainicjował tryb odskalowania na ekspresie do kawy i zakończył pomyślnie odskalowanie. Otrzymali nawet trzy błyski kontrolki zasilania na koniec, aby potwierdzić, że odkamienianie zostało zakończone. Dlaczego nie mogą już uruchomić ekspresu do kawy?"
Dodanie kontekstu w ten sposób jest ważne, ponieważ pomaga Copilot lepiej zrozumieć intencje użytkownika i zapewnić dokładniejsze i trafniejsze odpowiedzi.
W miarę możliwości unikaj terminów technicznych
Zalecamy unikanie używania wysoce technicznych terminów i nazw zasobów podczas interakcji z Copilot, ponieważ system może nie zawsze dokładnie lub odpowiednio go rozumieć. Użycie prostszego, naturalnego języka pomaga zapewnić, że system może poprawnie zrozumieć intencje użytkownika i dostarczyć jasnych, użytecznych odpowiedzi.
Na przykład możesz ponownie użyć polecenia "Klient nie może nawiązać połączenia SSH z maszyną wirtualną po zmianie konfiguracji zapory" na "Klient zmienił reguły zapory na swojej maszynie wirtualnej. Jednak nie może już łączyć się za pomocą Secure Shell (SSH). Czy możesz pomóc?"
Postępując zgodnie z sugestiami, przedstawiciele mogą poprawić swoje interakcje z aplikacją Copilot i zwiększyć prawdopodobieństwo otrzymania od niej rzetelnych i wiarygodnych odpowiedzi.
Podsumowanie lub rozwinięcie odpowiedzi
Czasami odpowiedź od Copilot może być dłuższa niż oczekiwano. Może się tak zdarzyć w przypadku, gdy przedstawiciel uczestniczy w czacie na żywo z klientem i musi wysłać zwięzłe odpowiedzi zamiast wysyłać odpowiedź pocztą e-mail. W takich sytuacjach proszenie Copilota o "podsumowanie odpowiedzi" skutkuje zwięzłą odpowiedzią na pytanie. Podobnie, jeśli istnieje potrzeba więcej szczegółów, prosząc Copilot o "Podaj więcej szczegółów" powoduje bardziej szczegółową odpowiedź na twoje pytanie. Jeśli odpowiedź zostanie obcięta, wpisanie "continue" spowoduje wyświetlenie pozostałej części odpowiedzi.
Jak mogę wpłynąć na odpowiedzi wygenerowane przez Copilot? Czy mogę dostroić podstawowe LLM?
Nie jest możliwe bezpośrednie dostosowanie dużego modelu językowego (LLM). Na odpowiedzi Copilota można wpływać poprzez aktualizację dokumentacji źródłowej. Wszystkie treści opinii z odpowiedzi Copilot są przechowywane. Raporty mogą być tworzone przy użyciu tych danych w celu określenia źródeł danych, które wymagają aktualizacji. Dobrym pomysłem jest okresowe przeglądanie danych zwrotnych i zapewnienie, że artykuły merytoryczne dostarczają najlepsze, najbardziej aktualne informacje dla Copilot.
Jaki jest model bezpieczeństwa danych w Copilot?
Copilot wymusza zdefiniowaną kontrolę dostępu opartą na rolach (RBAC) i przestrzega wszystkich istniejących konstrukcji bezpieczeństwa. W związku z tym przedstawiciele nie mogą wyświetlać danych, do których nie mają dostępu. Ponadto tylko źródła danych, do których przedstawiciel ma dostęp, są używane do generowania odpowiedzi Copilot.
W jaki sposób Copilot określa, czy treść jest obraźliwa czy szkodliwa?
Copilot określa, czy treść jest szkodliwa, za pomocą systemu oceny ważności opartego na odrębnych kategoriach kontrowersyjnych treści. Dowiedz się więcej w kategoriach szkody w obszarze Bezpieczeństwo zawartości sztucznej inteligencji platformy Azure.
Gdzie odbywa się przetwarzanie i pobieranie danych w celu wygenerowania odpowiedzi pomocnika?
Copilot nie korzysta z publicznej usługi OpenAI, która obsługuje ChatGPT. Aplikacja Copilot w usłudze Customer Service korzysta z usługi Microsoft Azure OpenAI Service w dzierżawie zarządzanej przez Microsoft. Całe przetwarzanie i pobieranie danych odbywa się w ramach dzierżaw zarządzanych przez Microsoft. Ponadto dane klientów nie są udostępniane i nie są przekazywane z powrotem do modeli publicznych.
Jakie są ograniczenia językowe podsumowań, które Copilot generuje na podstawie przypadków i konwersacji?
Wiele języków jest obsługiwanych w generowanych przez narzędzie Copilot podsumowaniach przypadków i konwersacji. Oczekuje się, że jakość tych streszczeń będzie najwyższa w języku angielskim, podczas gdy w innych językach oczekuje się, że jakość poprawi się z czasem. Dowiedz się więcej o obsługiwanych językach w temacie Obsługa języków dla funkcji Copilot
Czy model jest na bieżąco testowany i monitorowany? Jeśli tak, to jak często? Jakie testy są wykonywane?
Model jest testowany pod kątem jakości i szkodliwej zawartości za każdym razem, gdy następuje zmiana interakcji lub wersji modelu. Dowiedz się więcej z Raportu przejrzystości na temat odpowiedzialnego korzystania ze sztucznej inteligencji.
Jak często model jest monitorowany w celu wykrycia spadku wydajności?
Azure OpenAI hostuje i zarządza generatywnym modelem AI GPT. Wykorzystanie modelu w scenariuszach obsługi klienta jest związane z odpowiedzialnymi praktykami AI i kontrolami Rady Bezpieczeństwa Wdrożeń. Wszelkie zmiany w wersjach modelu lub podstawowych monitach są weryfikowane pod kątem jakości i szkodliwej zawartości. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.
Czy produkt lub usługa wykorzystuje więcej niż jeden model lub system współzależnych modeli?
Różne funkcje w systemie mogą korzystać z różnych wersji modeli usługi Azure OpenAI Service. Dowiedz się więcej: Modele usługi Azure OpenAI Service.
Czy Copilot używa modelu produktu lub usługi innej niż Microsoft i czy jest dostępna dokumentacja dla tego modelu?
Aplikacja Copilot została zbudowany przy użyciu Azure OpenAI — w pełni zarządzanej usługi AI, która integruje OpenAI z modelami filtrowania treści i wykrywania nadużyć opracowanymi przez Microsoft. Więcej informacji można znaleźć w temacie Uwaga dotycząca usługi Azure OpenAI Service.
Czy istnieje ustalony proces przekazywania informacji o wszelkich zmianach w modelach, modelach nadrzędnych lub danych wyjściowych, które są używane z innych rozwiązań AI/ML lub modeli?
Wszelkie planowane zmiany w funkcjach Copilot są przekazywane za pośrednictwem publicznej dokumentacji. Jednak zmiany w odniesieniu do wersji modelu lub wskazówek są regulowane przez wewnętrzne procesy odpowiedzialne AI. Te zmiany nie są komunikowane, ponieważ są to przyrostowe i ciągłe ulepszenia funkcjonalne.
Czy Microsoft udostępnia dosłowne informacje zwrotne od użytkowników w celu ulepszenia produktu?
Nie
Czy Microsoft posiada zasady i procedury, które definiują i różnicują różne role i obowiązki ludzi podczas interakcji z systemami sztucznej inteligencji lub ich monitorowania?
Tak. W procesie odpowiedzialnej sztucznej inteligencji brani są pod uwagę wszyscy zaangażowani interesariusze i użytkownicy, a ich użycie lub niezamierzone użycie systemu jest omawiane. Na podstawie zidentyfikowanych scenariuszy wymagane środki zaradcze są wprowadzane w ramach produktu lub za pośrednictwem dokumentacji. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Czy Microsoft identyfikuje i dokumentuje podejścia do angażowania, przechwytywania i uwzględniania informacji od innych użytkowników końcowych i kluczowych interesariuszy, aby pomóc w ciągłym monitorowaniu potencjalnych skutków i pojawiających się zagrożeń?
Tak. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Czy Microsoft dokumentuje, ćwiczy i mierzy plany reagowania na incydenty związane z systemem sztucznej inteligencji, w tym mierzy czas reakcji i przestojów?
Tak. Proces odpowiedzialnej sztucznej inteligencji wymaga, aby zespół miał plan reagowania na zdarzenia dotyczące problemów ze sztuczną inteligencją, podobnie jak w przypadku problemów funkcjonalnych. Zespoły funkcji aktywnie monitorują wydajność i niezawodność systemu. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Czy Microsoft ustanawia procedury wymiany informacji o występowaniu błędów i negatywnych skutkach z odpowiednimi interesariuszami, operatorami, praktykami, użytkownikami i zainteresowanymi stronami?
Tak. W przypadku problemów o wysokim poziomie ważności zespoły funkcji muszą poinformować klientów, których dotyczy problem, o awarii.
Czy Microsoft mierzy i monitoruje wydajność systemu w czasie rzeczywistym, aby umożliwić szybką reakcję w przypadku wykrycia incydentu w systemie AI?
Tak. Zespoły ds. funkcji stale monitorują wydajność i niezawodność systemu.
Czy Microsoft testuje jakość wyjaśnień systemowych z użytkownikami końcowymi i innymi interesariuszami?
Tak. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Czy firma Microsoft ma ustanowione zasady i procedury monitorowania i rozwiązywania problemów związanych z wydajnością i wiarygodnością systemów modelowych, w tym tendencyjnością i problemami z bezpieczeństwem w całym cyklu życia modelu, podczas oceny systemów sztucznej inteligencji pod kątem negatywnych zagrożeń i korzyści?
Tak. Więcej informacji można znaleźć w Raporcie przejrzystości odpowiedzialnego użycia AI.
Czy Microsoft przeprowadza oceny uczciwości w celu zarządzania obliczeniowymi i statystycznymi formami stronniczości?
Tak. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Czy Microsoft monitoruje dane wyjściowe systemu pod kątem problemów z wydajnością lub odchyleniami?
Tak. Filtry moderacji są stosowane na wielu warstwach, w tym na danych wyjściowych, aby upewnić się, że w odpowiedzi nie ma szkodliwej zawartości. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Jaki jest poziom odporności działania modelu? Na przykład, czy istnieje plan odzyskiwania po awarii i plan awaryjny na wypadek, gdyby model był niedostępny?
Podobnie jak w przypadku wszystkich usług Azure, tworzenie kopii zapasowych i odzyskiwanie danych jest obsługiwane przez wiele centrów danych w celu zapewnienia wysokiej dostępności.
Czy model jest zależny od narzędzi lub rozwiązań innych firm, osadzonych w nich, co utrudnia migrację modelu do innego środowiska (w tym zmiennych, takich jak dostawca hostingu, sprzęt, systemy oprogramowania), które utrudniałyby wytłumaczalność modelu?
Nr
Czy istnieje ustalona polityka zarządzania modelami?
Tak. Usługa Azure OpenAI obsługuje ustalone zasady ładu. Dowiedz się więcej w Raporcie przejrzystości dotyczącym odpowiedzialnego AI.
Czy istnieją ustanowione i udokumentowane protokoły (autoryzacja, czas trwania, typ) i kontrola dostępu do zestawów danych szkoleniowych lub produkcyjnych zawierających informacje umożliwiające identyfikację zgodnie z zasadami ochrony prywatności i zarządzania danymi?
Obecnie nie ma trenowania modelu, dlatego nie ma wymagań dotyczących zestawu danych. Jednak gdy przedstawiciel działu obsługi klienta skontaktuje się z Copilot, w zależności od funkcji, dane kontekstowe (przypadek lub czat) są używane do generowania odpowiedzi.
Czy monitorowane są ujawnianie informacji umożliwiających ustalenie tożsamości oraz wnioskowanie o atrybutach wrażliwych lub prawnie chronionych?
Tak. Przegląd prywatności jest przeprowadzany dla każdej funkcji.
Czy Microsoft ma proces uwzględniania kwestii prawnych i regulacyjnych oraz wymagań specyficznych dla branży, celu biznesowego i środowiska aplikacji wdrożonych systemów sztucznej inteligencji?
Tak. Przegląd prawny jest przeprowadzany dla każdej funkcji, aby pomóc w wymaganiach regulacyjnych i innych sprawach prawnych.
Informacje pokrewne
Używanie funkcji pomocnika
Korzystanie z usługi Copilot do generowania wersji roboczych wiedzy na podstawie przypadków
Dostępność Copilot zależnie od regionu
Często zadawane pytania dotyczące bezpieczeństwa i prywatności danych w usłudze Copilot na platformie Microsoft Power Platform