次の方法で共有


顧客サービスの Copilot についての責任ある AI FAQ

適用対象: Dynamics 365 Contact Center—埋め込み、Dynamics 365 Contact Center—スタンドアロン、Dynamics 365 Customer Service

この FAQ 記事は、顧客サービスのコパイロット機能における AI の責任ある使用に関する質問に答えるのに役立ちます。

Dynamics 365 Customer Service の Copilot とは何ですか?

Copilot は、Dynamics 365 Customer Service の 顧客サービス担当者 (サービス担当者 または 担当者) エクスペリエンスを変革する AI を活用したツールです。 担当者が問題をより迅速に解決し、ケースをより効率的に処理し、時間のかかるタスクを自動化し、顧客に高品質のサービスを提供することに集中できるようにする、リアルタイムの AI を利用した支援を提供します。

システムの機能とは何ですか?

Copilot の主な機能は以下の通りです:

  • 質問する: サービス担当者が Copilot ヘルプ ペインをアクティブにしたときに最初に表示されるタブです。 これは Copilot を使用した会話型インターフェイスであり、担当者の質問に対してコンテキストに応じた回答を提供するのに役立ちます。 Copilot の応答は、セットアップ中に組織から提供される内部および外部の両方の知識ソースに基づいています。

  • メールを作成する: Copilot ヘルプ ペインの 2 番目のタブは、担当者がサポート案件のコンテキストに基づいてメール応答を迅速に作成するのに役立ち、ユーザーがメールの作成に費やす時間を短縮します。

  • チャットの応答を下書きする: 担当者は、組織が設定したナレッジ ソースから進行中のデジタル メッセージング会話に対して一度のクリックで応答を作成できます。

  • サポート案件を要約する: Copilot では、担当者がサポート案件フォーム上でサポート案件の概要を確認できるため、サポート案件の重要な詳細をすばやく把握することができます。

  • 会話を要約する: Copilot は、仮想担当者のハンドオフ、転送、オンデマンドなど、顧客体験全体の重要なポイントで、担当者に会話の要約を提供します。

  • サポート案件からナレッジ ドラフトを生成する (プレビュー): Copilotは、サポート案件の情報に基づいて、提案としてナレッジ記事のドラフトを生成します。 担当者は、Copilot に修正指示を与えることで、下書きをレビューして改良し、保存することができます。

  • カスタム レコードを要約する: Copilot は、担当者がサポート レコードの重要な詳細を迅速に把握できるように、管理者がカスタム テーブルに構成したフィールドに基づいてレコードの概要を担当者に提供します。

  • 解決メモを生成する: Copilot は、サポート案件の詳細、メール、サポート案件にリンクされたメモの概要を 質問する タブで担当者に提供し、サポート案件またはインシデントをより早くクローズできるようにします。

  • AI 主導の最適な方法選択を使用した予測 (プレビュー): シナリオの入力に基づいて最適な方法をインテリジェントに推奨して適用することで、予測シナリオを強化します。 管理者はセットアップ中にオプトインし、従来のアプローチと AI ベースのオプションを選択できます。 また、スーパーバイザーはスケジュールされた実行を待つ代わりにオンデマンドで予測を実行できるため、チームは柔軟性と迅速な分析情報を得ることができます。

システムの使用目的は何ですか?

顧客サービス の Copilot は、顧客サービス の担当者がより効率的かつ効果的に作業できるようにすることを目的としています。 顧客サービスの担当者は、Copilot のナレッジベースの回答を使用して、ナレッジ記事の検索や回答の下書きにかかる時間を節約できます。 Copilot サマリーは、担当者がケースや会話を迅速に進められるようサポートすることを目的としています。 Copilot によって顧客サービスで生成されたコンテンツは、人間によるレビューや監督なしに使用することを目的としていません。

Customer Service の Copilot はどのように評価されますか? パフォーマンスの測定にはどのようなメトリックが使用されますか?

顧客サービスの Copilot は、設計、開発、リリースの各段階を通じて、世界中の顧客との現実のシナリオに照らして評価されています。 調査とビジネスへの影響調査を組み合わせて、Copilot に関するさまざまな定量的および定性的な指標 (正確性、有用性、代表者の信頼性など) を評価しました。 詳しくは 責任ある AI の透明性レポートをご覧ください。

顧客サービスの Copilot の制限はありますか? どうすれば Copilot の制限による影響を最小限に抑えることができますか?

Copilotのナレッジベース機能である質問をする、メールを書く、チャット応答を作成するなどの能力は、基盤となる高品質で最新のナレッジ記事に依存します。 これらのナレッジ記事がないと、ユーザーは事実に基づかない Copilot の応答に遭遇する可能性が高くなります。

Copilot からの非事実の応答が表示される可能性を最小限に抑えるために、Microsoft は堅牢なナレッジ管理プラクティスを採用して、Copilot に接続するビジネス知識が高品質で最新であることを確認することが重要です。

システムを効果的に責任を持って利用できるようにするために、どのような運用要因および設定がありますか?

Copilot からの結果を常に確認してください

Copilot は、本質的に確率的な大規模言語モデル テクノロジーに基づいて構築されています。 入力テキストが与えられると、モデルはそのテキストの前にある単語を考慮して、そのテキスト内の各単語の確率を計算します。 続いてモデルは、後に続く可能性が最も高い単語を選択します。 ただし、モデルは確率に基づいているため、次の正しい単語が何であるかを絶対確実に言い当てることはできません。 代わりに、トレーニングされたデータから学習した確率分布に基づいて最良の推測を提供します。 Copilot は、グラウンディングと呼ばれるアプローチを使用します。これには、入力に追加情報を追加して、組織への出力をコンテキスト化することが含まれます。 セマンティック検索を使用して入力を理解し、関連する組織内部ドキュメントや信頼できる公開 Web 検索結果を取得し、そのコンテンツに基づいて応答するように言語モデルをガイドします。 これは、Copilot の応答が組織データに準拠していることを確認するのに役立ちますが、Copilot によって生成された結果を使用する前に常に確認することが重要です。

Copilot を最大限に活用する

Copilot と対話する際は、質問の構造が Copilot の応答に大きく影響する可能性があることに留意することが重要です。 Copilot と効果的に対話するには、明確で具体的な質問をし、AI がユーザーの意図をよりよく理解できるようにコンテキストを提供し、一度にひとつずつ質問し、明確さとアクセシビリティのために専門用語を避けることが重要です。

明確かつ具体的な質問をする

質問する際には明確な意図が不可欠であり、それは応答の質に直接影響します。 たとえば、"顧客のコーヒー マシンが起動しない理由" のような広範な質問をすると、"顧客のコーヒー マシンが起動しない理由を判断するために実行できる手順は何か" など、より具体的な質問に比べて役立つ回答が得られる可能性が低くなります。

ただし、「Contoso 900 コーヒー マシンの 5 バーの圧力評価が開始されない理由を判断するには、どのような手順が必要か」などのさらに詳細な質問を行うと、問題の範囲が絞り込まれるため、より正確で対象を絞った回答が得られます。

コンテキストの追加

コンテキストを追加すると、会話型 AI システムがユーザーの意図をよりよく理解し、より正確で関連性の高い応答を提供できるようになります。 コンテキストがない場合、システムはユーザーの質問を誤解したり、一般的または無関係な応答を提供したりする可能性があります。

たとえば、「なぜコーヒー マシンが起動しないのですか」と言うと、"最近、顧客がコーヒー マシンで脱スケール モードを開始し、スケールを正常に完了しました" などのコンテキストが多い質問と比較すると、一般的な応答が返されます。 最後に電源ランプが 3 回点滅し、スケール除去が完了したことを確認しています。 コーヒーメーカーが起動しなくなったのはなぜですか?」

このようにコンテキストを追加することは、Copilot がユーザーの意図をよりよく理解し、より正確で適切な応答を提供するのに役立つため、重要です。

可能であれば専門用語を避ける

Copilot とやり取りするときは、システムが正確または適切に認識しているとは限らないため、高度な技術用語とリソース名を使用しないことをお勧めします。 よりシンプルな自然言語を使用すると、システムがユーザーの意図を正しく理解し、明確で有用な応答を提供できるようになります。

たとえば、"お客様はファイアウォール構成を変更した後に VM に SSH 接続できません" を "お客様が仮想マシンのファイアウォール規則を変更しました" と言い換えることができます。 その後、セキュア シェル (SSH) を使用して接続できなくなりました。 お手伝いできますか?

提案に従うことで、担当者は Copilot とのやり取りを強化し、正確で自信を持って回答を受け取る可能性を高めることができます。

回答を要約または展開する

Copilot からの応答が予想よりも長くなる場合があります。 これは、担当者が顧客とのライブチャットの会話中に、電子メールで応答を送信する場合と比較して、簡潔な応答を送信する必要がある場合に当てはまります。 このような場合、Copilot に "応答の要約" を依頼すると、質問に対する簡潔な回答が得られます。 同様に、さらに詳細が必要な場合は、Copilot に 「詳細を提供する」よう依頼すると、質問に対するより詳細な回答が得られます。 応答が切り捨てられた場合、「続行」と入力すると、応答の残りの部分が表示されます。

Copilot によって生成された応答に影響を与える方法 基になる LLM を微調整できますか?

大規模言語モデル (LLM) を直接カスタマイズすることはできません。 Copilot の応答は、ソース ドキュメントを更新することによって影響を受ける可能性があります。 Copilot の応答からのすべてのフィードバック コンテンツが格納されます。 このデータを使用してレポートを作成し、更新する必要があるデータ ソースを決定できます。 フィードバック データを定期的に見直し、ナレッジ記事が Copilot に最適かつ最新の情報を提供していることを確認するプロセスを用意することをお勧めします。

Copilot のデータ セキュリティ モデルは何ですか?

Copilot は、定義されたロールベースのアクセス (RBAC) コントロールを適用し、既存のすべてのセキュリティコンストラクトに準拠します。 そのため、担当者はアクセス権のないデータを表示できません。 さらに、代理人がアクセスできるデータ ソースのみが、Copilot 応答の生成に使用されます。

Copilot は、コンテンツが攻撃的か有害かをどのように判断しますか?

Copilot は、好ましくないコンテンツの明確なカテゴリに基づく重大度評価システムを通じて、コンテンツが有害かどうかを判断します。 詳細については、 Azure AI Content Safety の [損害] カテゴリを参照してください。

コパイロットの応答を生成するためのデータの処理と取得はどこで行われますか?

Copilot は、ChatGPT を強化するパブリック OpenAI サービスを呼び出しません。 顧客サービスの Copilot は、Microsoft の管理対象テナントで Microsoft Azure OpenAI サービス を使用します。 すべてのデータの処理と取得は、Microsoft が管理するテナント内で行われます。 また、顧客のデータは共有されず、公開モデルにフィードバックされません。

Copilot がケースや会話から生成する要約の言語制限は何ですか?

Copilot がケースや会話から生成する要約では、多くの言語がサポートされています。 これらの要約の質は英語で最も高く、他の言語では時間の経過とともに品質が向上すると予想されます。 Copilot の言語サポート機能でサポートされている言語について説明します

モデルは継続的にテストおよび監視されていますか? もしそうなら、どのくらいの頻度で? どのようなテストが実施されますか?

モデルのインタラクションやバージョンが変更されるたびに、モデルの品質や有害なコンテンツがテストされます。 詳しくは、責任ある AI の透明性レポートをご覧ください。

パフォーマンスの低下を検出するために、モデルはどのくらいの頻度で監視されますか?

Azure OpenAI は、生成型 AI GPT モデルをホストし、管理します。 カスタマー サービス シナリオでのモデルの使用は、責任ある AI のプラクティスとデプロイ安全委員会のチェックに遵守しています。 モデル バージョンや基になるプロンプトに対する変更は、品質と有害なコンテンツについて検証されます。 詳しくは 責任ある AI の透明性レポートをご覧ください。

製品またはサービスは、複数のモデルまたは相互依存モデルのシステムを採用していますか?

システム内の異なる機能が、異なるバージョンの Azure OpenAI Service モデルを使用している可能性があります。 詳細は、Azure OpenAI Service モデルを参照してください。

Copilot は Microsoft 以外のモデルの製品またはサービスを使用しており、このモデルのドキュメントは入手できますか?

Copilot は、マイクロソフトが開発したコンテンツ フィルターおよび不正使用検出モデルと OpenAI を統合するフル マネージド AI サービスである Azure OpenAI を使用して構築されています。 詳しくは Azure OpenAI の透過性のためのメモをご覧ください。

他の AI/ML またはモデル ソリューションから使用されるモデル、アップストリーム モデル、または出力の変更を伝達するための設定されたプロセスはありますか?

Copilot 機能に対する計画の変更は、公開ドキュメントを通じて通知されます。 ただし、モデル バージョンやプロンプトに関する変更は、内部の責任ある AI プロセスによって管理されます。 これらの変更は、段階的かつ継続的な機能改善であるため、通知されません。

製品を改善するために、マイクロソフトに逐語的なフィードバックは利用可能ですか?

いいえ

Microsoft には、AI システムと対話または監視する際のさまざまな人間の役割と責任を定義し、区別するポリシーと手順がありますか?

はい 責任ある AI プロセスでは、関係するすべての利害関係者とユーザーが考慮され、システムの使用または意図しない使用について話し合います。 特定されたシナリオに基づいて、必要な軽減策が製品内またはドキュメントを介して取り込まれます。 詳しくは、責任ある AI の透明性レポートをご覧ください。

Microsoftは、潜在的な影響や新たなリスクの継続的な監視を支援するために、他のエンドユーザーや主要な利害関係者からの意見を関与させ、収集し、取り入れるためのアプローチを特定して文書化していますか?

はい 詳しくは、責任ある AI の透明性レポートをご覧ください。

Microsoftは、対応時間やダウンタイムの測定など、AIシステムインシデントのインシデント対応計画を文書化、実践、測定していますか?

はい 責任ある AI プロセスでは、機能上の問題のプロセスと同様に、AI の問題に対するインシデント対応計画をチームに持っている必要があります。 機能チームは、システムのパフォーマンスと信頼性を積極的に監視します。 詳しくは、責任ある AI の透明性レポートをご覧ください。

Microsoftは、エラーの発生と悪影響に関する情報を、関連する利害関係者、オペレーター、実務家、ユーザー、および影響を受ける当事者と共有するための手順を確立していますか?

はい 重大度の高い問題の場合、機能チームは、影響を受ける顧客に停止を通知する必要があります。

Microsoftは、AIシステムのインシデントが検出されたときに迅速な対応を可能にするために、システムのパフォーマンスをリアルタイムで測定および監視していますか?

はい 機能チームは、システムのパフォーマンスと信頼性を継続的に監視します。

Microsoftは、エンドユーザーやその他の利害関係者とシステムの説明の品質をテストしていますか?

はい 詳しくは、責任ある AI の透明性レポートをご覧ください。

Microsoft は、AI システムの負のリスクとベネフィットを評価する際に、モデルのライフサイクル全体にわたるバイアスやセキュリティの問題など、モデル システムのパフォーマンスと信頼性を監視して対処するためのポリシーと手順を確立していますか?

はい 詳しくは 責任ある AI の透明性レポートをご覧ください。

Microsoftは、計算的および統計的なバイアスを管理するために公平性評価を実施していますか?

はい 詳しくは、責任ある AI の透明性レポートをご覧ください。

Microsoftは、パフォーマンスやバイアスの問題がないかシステム出力を監視しますか?

はい モデレーション フィルターは、応答に有害なコンテンツがないことを確認するために、出力を含む複数のレイヤーに適用されます。 詳しくは、責任ある AI の透明性レポートをご覧ください。

モデルの操作の回復性のレベルはどの程度ですか。 たとえば、モデルが使用できない場合のインスタンスに対するディザスター リカバリーおよびコンティンジェンシー プランはありますか?

すべてのAzureサービスと同様に、バックアップとリカバリは複数のデータセンターを介してサポートされ、高可用性を実現します。

モデルは、モデルの説明可能性を妨げる別の環境 (ホスティング プロバイダー、ハードウェア、ソフトウェア システムなどの変数を含む) へのモデルの移行を困難にするサードパーティのツールまたはソリューションに依存し、埋め込まれていますか?

いいえ

確立されたモデル ガバナンス ポリシーはありますか?

はい Azure OpenAI では、確立されたガバナンス ポリシーがサポートされます。 詳しくは、責任ある AI の透明性レポートをご覧ください。

プライバシーおよびデータガバナンスポリシーに従って、PIIを含むトレーニングまたは本番データセットのプロトコル(承認、期間、タイプ)とアクセス制御が確立され、文書化されていますか?

現在、モデルのトレーニングは行われていないため、データ セットに関する要件はありません。 ただし、顧客サービス担当者が Copilot と連携する場合は、機能に応じて、コンテキスト データ (ケースまたはチャット) を使用して応答が生成されます。

PIIの開示や、機密性の高い属性や法的に保護された属性の推論は監視されていますか?

はい プライバシーレビューはすべての機能に対して行われます。

はい 法的レビューは、規制要件やその他の法的事項に役立つすべての機能について行われます。

Copilot 機能の使用
Copilot を使用してケースからナレッジの下書きを生成する
Copilot の地域別の可用性
Microsoft Power Platform での Copilot データのセキュリティとプライバシーに関する FAQ