適用於:Dynamics 365 Contact Center — 內嵌、Dynamics 365 Contact Center — 獨立和 Dynamics 365 Customer Service
這篇常見問題文章可協助解答有關在 Customer Service 的副手功能中負責任地使用 AI 的問題。
Dynamics 365 Customer Service 中的 Copilot 是什麼?
Copilot 是由 AI 支援的工具,改變了客戶服務代表 (服務代表或代表) 在 Dynamics 365 Customer Service 中的體驗。 它提供即時的 AI 協助,幫助代表更快解決問題、更有效率處理案件,並自動化耗時的工作,讓他們能專注於為客戶提供高品質服務。
有哪些系統功能?
Copilot 提供下列主要功能:
提出問題:這是服務代表啟用 Copilot 説明窗格時看到的第一個索引標籤。 這是與 Copilot 的交談介面,有助於對代表的問題提供關聯式回應。 Copilot 的回應是根據您組織在安裝期間所提供的內部和外部知識來源所產生。
撰寫電子郵件:Copilot 說明窗格中的第二個索引標籤可協助代表根據案例的內容快速建立電子郵件回應,並減少使用者建立電子郵件所需花費的時間。
草擬聊天回應:讓代表只需按一下您組織所設定之知識來源的進行中數位傳訊交談,即可建立回應。
摘要案例:Copilot 直接在案例表單上提供案例摘要給代表,讓他們快速獲悉案例的重要詳細資料。
摘要交談:Copilot 在整個客戶旅程的重要時刻 (例如虛擬代表交接、轉移) 以及視需要,為代表提供交談的摘要。
從案例產生知識草稿 (預覽版):Copilot 根據案例中的資訊產生知識文章草稿做為提案。 代表可以向 Copilot 發出修訂指示來檢閱並完善草稿,然後加以儲存。
建立自訂記錄的摘要:Copilot 根據管理員為自訂資料表設定的欄位,為代表提供記錄摘要,讓代表可以快速了解支援記錄的重要詳細資料。
產生解決方案附註:Copilot 會在提出問題索引標籤中提供案例詳細資料、電子郵件以及與案例連結之附註的摘要給代表,讓他們可以加快關閉案例或事件。
利用 AI 驅動的最佳方法選擇預測(預覽):根據情境輸入,智慧地推薦並應用最合適的方法,強化預報情境。 管理員可在設定時選擇加入,並在傳統方式與 AI 基礎選項間選擇。 主管也能按需執行預測,而不必等待排定的運行,為團隊帶來彈性與更快的洞察。
系統的預期用途是什麼?
Customer Service 中的 Copilot 旨在協助客戶服務代表以更有效率和效果的方式工作。 客戶服務代表可以使用 Copilot 基於知識的回應,節省搜尋知識文章和建立回應草稿的時間。 Copilot 摘要旨在支援代表快速掌握案例和交談。 Copilot 在 Customer Service 中產生的內容不應在沒有人工審查或監督的情況下使用。
如何評估 Customer Service 中的 Copilot? 用來衡量效能的計量是什麼?
Customer Service 中的 Copilot 在其設計、開發和發行的每個階段上,皆已根據全球客戶的實際案例進行評估。 我們將調查與業務影響研究搭配使用,評估了 Copilot 的各種量化和質化計量,包括其正確性、實用性和代表信任度。 在負責任 AI 透明度報告中了解詳細資訊。
Customer Service 中的 Copilot有哪些限制? 使用者如何將 Copilot 限制所造成的影響降到最低?
Copilot 的知識型功能,如詢問問題、寫信、撰寫聊天回覆,依賴高品質且最新的知識文章來提供基礎支持。 沒有這些知識文章,使用者很可能會收到與事實不符的 Copilot 回應。
為了減少看到 Copilot 非事實性回應的可能性,Microsoft 必須採用健全的知識管理機制,確保連接到 Copilot 的商業知識高品質且最新。
為了有效並負責任地使用系統,應顧及哪些操作因素和設定?
永遠都要審查 Copilot 的結果
Copilot 是以大型語言模型技術為基礎所建立,本質上具有機率性。 輸入一段文字時,此模型會根據每個字詞前面的字詞計算出該字詞在這段文字中的機率。 模型接著選擇最有可能跟隨的字詞。 不過,由於模型是根據機率而定,因此沒有絕對確定性可以說出正確的下一個字。 反而是根據從訓練資料中學習到的機率分佈,為我們提供最佳猜測。 Copilot 使用一種稱為「資料錨定」的方法,此方法需要將其他資訊新增至輸入,以建立輸出與您的組織的內容關聯。 其採用語言模型,以理解輸入並擷取相關內部組織文件和受信任公開網頁搜尋結果,然後引導語言模型根據該內容作出回應。 雖然這有助於確保 Copilot 回應與組織資料保持一致,但在使用 Copilot 產生的結果之前,務必都要對其進行審查。
充分發揮 Copilot 的功能
與 Copilot 互動時,請務必記住,問題的結構會在很大程度上影響 Copilot 的回應。 要與 Copilot 進行有效的互動,關鍵在於提出明確具體的問題、提供背景內容協助 AI 更充分理解您的意圖、一次只問一個問題,而且為了清晰易懂,避免使用專業術語。
提出明確具體的問題
提出問題時,意圖明確至關重要,因為這直接影響回應的品質。 例如,問一個像「為什麼顧客的咖啡機沒有啟動?」這樣的廣泛問題,較不像問更具體的問題(例如「我可以採取哪些步驟來判斷為什麼顧客的咖啡機沒有啟動?」)來得有幫助的回答。
然而,若提出更詳細的問題,例如「我可以採取哪些步驟來判斷為何一台壓力為5巴的Contoso 900咖啡機無法啟動?」則能縮小問題範圍,提供更多背景,進而提供更準確且針對性的回應。
新增內容
新增背景內容可協助交談式 AI 系統更充分理解使用者的意圖,並提供更準確且具相關性的回應。 如果沒有背景內容,系統可能會誤解使用者的問題,或是提供一般或不相關的回應。
例如,「為什麼咖啡機無法啟動?」與「最近客戶啟動咖啡機除垢模式並成功完成除垢」這類有更多上下文的問題相比,得到的回答是泛泛而談。 他們甚至從尾端的電源指示燈收到三次閃光,確認除垢已完成。 為什麼他們無法再啟動咖啡機?」
以這種方式新增背景內容很重要,因為這可協助 Copilot 更充分理解使用者的意圖,並提供更準確且具相關性的回應。
盡可能避免使用專業術語
我們建議您在與 Copilot 互動時避免使用高度專業的術語和資源名稱,因為系統可能不一定能準確或適當地理解這些內容。 使用更簡單的自然語言有助於確保系統可正確理解使用者的意圖,並提供明確、有用的回應。
例如,你可以把「客戶在更改防火牆設定後無法 SSH 進入虛擬機」改成「客戶更改了他們虛擬機器上的防火牆規則。 不過,他們無法再使用安全殼層 (SSH) 進行連接。 你能幫忙嗎?」
代表可以遵循這些建議,增強他們與 Copilot 的互動,並增加從中獲得準確且肯定回應的可能性。
彙總或展開回應
Copilot 的回應有時可能比預期還要長。 相比於透過電子郵件傳送回應,當代表與客戶進行即時聊天交談,而需要傳送簡潔回應時,可能會出現這種情況。 在這種情況下,請 Copilot「總結回應」會得到簡潔的回答。 同樣地,如果需要更多細節,請 Copilot 「提供更多細節」會得到更詳細的回答。 若回應被截斷,輸入「continue」會顯示回應的剩餘部分。
我該如何影響 Copilot 產生的回應? 我可以微調底層的大型語言模型嗎?
您無法直接自訂大型語言模型 (LLM)。 更新來源文件可以影響 Copilot 回應。 所有來自 Copilot 回應的回饋內容都會被儲存。 您可以使用此資料建立報表來判斷需要更新的資料來源。 定期審查回饋資料,確保知識文章能提供最佳、最新資訊給 Copilot,是個好主意。
Copilot 的資料安全性模型是什麼?
Copilot 執行定義的角色基礎存取(RBAC)控制,並遵守所有現有的安全架構。 因此,代表無法檢視他們沒有存取權限的資料。 此外,只有代表能存取的資料來源才會用於 Copilot 回應產生。
Copilot 如何判斷內容是冒犯性的還是有害的?
Copilot 根據不良內容的不同類別,透過嚴重性評等系統判斷內容是否有害。 在 Azure AI 內容安全中的危害類別中了解更多。
資料處理和擷取會在哪裡進行以產生副手回應?
Copilot 不會呼叫驅動 ChatGPT 的公開 OpenAI 服務。 Customer Service 中的 Copilot 會在 Microsoft 受管理的租用戶中使用 Microsoft Azure OpenAI 服務。 所有資料處理和擷取都是在 Microsoft 受管理的租用戶中進行。 此外,客戶的資料不會共用,也不會反饋到公用模型中。
Copilot 根據案例和交談產生的摘要有哪些語言限制?
Copilot 根據案例和交談產生的摘要支援多種語言。 這些摘要的品質預計以英文為最高,而其他語言的品質則會隨著時間進展逐漸提高。 在 Copilot 功能的語言支援中了解支援的語言
是否會持續測試並監控模型? 如果是這樣,多久一次? 執行哪些測試?
每次模型互動或版本發生變更時,都會對模型進行品質和有害內容測試。 在負責任 AI 透明度報告中了解詳細資訊。
多久監控模型一次以偵測效能下降?
Azure OpenAI 負責託管並管理生成式 AI GPT 模型。 在客戶服務案例中使用此模型時,必須遵守負責任 AI 做法並接受部署安全委員會檢查。 模型版本或基本提示的任何變更都會經過品質和有害內容驗證。 在負責任 AI 透明度報告中了解詳細資訊。
產品或服務是否採用多個模型或一個相互依存的模型系統?
系統中的不同功能可能使用的是不同版本的 Azure OpenAI 服務模型。 在 Azure OpenAI 服務模型中了解詳細資訊。
Copilot 是否使用非 Microsoft 模型產品或服務,以及是否提供此模型的文件?
Copilot 是使用 Azure OpenAI 所建置,這是一項完全受控 AI 服務,將 OpenAI 與 Microsoft 開發的內容篩選及濫用偵測模型整合在一起。 在 Azure OpenAI 透明度資訊中了解詳細資訊。
是否有已設定的程序來傳達其他 AI/ML 或模型解決方案中所使用模型、上游模型或輸出的任何變更?
Copilot 功能的任何已規畫變更都會透過公開文件傳達。 不過,有關模型版本或提示的變更,則由內部負責任 AI 程序管理。 由於是逐步且持續的功能改進,並不會將這些變更公諸於眾。
使用者的逐字意見反應是否可提供給 Microsoft 來改善產品?
否。
Microsoft 是否有原則和程序來定義和區分各種在與 AI 系統互動或對 AI 系統進行監控時的人類角色和責任?
是。 在負責任 AI 程序中,考慮了所有涉及的利害關係人和使用者,並已討論他們對系統的使用或非預期使用。 我們已根據確立的案例,將所需的風險降低措施納入產品中或透過文件告知。 在負責任 AI 透明度報告中了解詳細資訊。
Microsoft 是否確認並記錄與其他終端使用者及主要利害關係人交流、擷取和吸納其意見的方法,以協助持續監控潛在影響和新出現風險?
是。 在負責任 AI 透明度報告中了解詳細資訊。
Microsoft 是否記錄、實行和衡量 AI 系統事件的事件回應計劃,包括衡量回應和停機時間?
是。 負責任的 AI 流程要求團隊對 AI 問題有事件應變計畫,類似於功能性問題的流程。 功能團隊積極監控系統的效能與可靠性。 在負責任 AI 透明度報告中了解詳細資訊。
Microsoft 是否建立程序,與相關利害關係人、操作者、從業者、使用者及受影響各方分享有關錯誤發生和負面影響的資訊?
是。 對於嚴重性高的問題,功能團隊必須與受影響的客戶溝通停機事宜。
Microsoft 是否即時測量和監視系統效能,以便在偵測到 AI 系統事件時快速回應?
是。 功能團隊會持續監視系統的效能和可靠性。
Microsoft 是否與終端使用者及其他利害關係人一起測試系統說明的品質?
是。 在負責任 AI 透明度報告中了解詳細資訊。
評估 AI 系統的負面風險和效益時,Microsoft 是否有既定原則和程序來監視和處理模型系統的效能和可信度 (包括模型整個生命週期的偏差和安全問題)?
是。 在負責任 AI 透明度報告中了解詳細資訊。
Microsoft 是否進行公平性評估,以管理計算和統計形式的偏差?
是。 在負責任 AI 透明度報告中了解詳細資訊。
Microsoft 是否監控系統輸出的效能或偏差問題?
是。 審核篩選條件會套用於多個層級 (包括輸出層),以確保回應中不存在有害內容。 在負責任 AI 透明度報告中了解詳細資訊。
此模型的運作復原能力等級如何? 例如,當模型無法使用時,是否有災難復原和應變計畫?
與所有 Azure 服務類似,備份和復原透過多個資料中心提供高可用性支援。
模型是否相依於或內嵌於協力廠商工具或解決方案,造成模型移轉至其他環境 (包括託管服務提供者、硬體、軟體系統等變數) 發生困難,不利於有效解釋模型的結果?
否。
是否有既定的模型治理原則?
是。 Azure OpenAI 支援既定的治理政策。 在負責任 AI 透明度報告中了解詳細資訊。
是否已根據隱私權和資料治理原則,針對包含 PII 的訓練或生產資料集,建立並記錄通訊協定 (授權、期間、類型) 和存取控制?
目前沒有模型訓練,因此對資料集沒有需求。 然而,當客服代表與 Copilot 互動時,依功能不同,會使用情境資料(案件或聊天)來產生回應。
是否會監控敏感性或受法律保護屬性的 PII 揭露與推論?
是。 每個功能都會進行隱私審查。
Microsoft 是否已制定程序,可以針對其產業、商務目的以及已部署 AI 系統的應用環境,考慮特定的法律及法規問題與需求?
是。 每個功能都會進行法律審查,以協助符合法規要求及其他法律事務。
相關資訊
使用 Copilot 功能
使用 Copilot 從案例產生知識草稿
Copilot 的區域可用性
Microsoft Power Platform 中 Copilot 資料安全性及隱私權常見問題