応答を評価する
教師が情報のプロンプトを書くとき、生成的 AI モデルは答えを "知っている" わけではありません。 代わりに、トレーニング データに基づいて最も可能性の高い応答を予測します。 プロンプトの品質に関係なく、モデルによって正しくないまたは捏造された応答が生成される場合があります。
誤った情報は、これらの捏造を通じて広がる可能性があります。 Copilot Chatは、信頼できるソースにすべての応答を基にすることを目的としていますが、AI によって生成される応答が正しくない可能性があり、インターネット上の Microsoft 以外のコンテンツが常に正確または信頼できるとは限りません。 Copilot Chatは、見つかった情報を誤って表示する場合があり、説得力はあるものの不完全、不正確、または不適切な応答が表示される場合があります。
Copilot Chatは、検索結果で予期しない不快なコンテンツを共有しないように機能し、チャット機能が有害な可能性のあるトピックに関与しないようにする手順を実行しますが、教師は予期しない結果を得る可能性があります。 応答の下にあるフィードバック機能を使用して、Microsoft に直接フィードバックを提供するか、懸念事項を報告します。
Copilot Chatプロンプトへの応答を提供すると、応答の生成に使用される検索用語とコンテンツ ソースへのリンクという 2 つの重要な情報も提供されます。 教師は、これらの詳細を使用して、応答の評価を通知できます。 プロンプト用語が目的の質問を表していない場合は、別の単語で新しいプロンプトを開始します。 ソース リンクが信頼できない場合は、指定した特定の信頼性の高い Web サイトを使用して、Copilot Chatに応答を絞り込むよう依頼してください。
ISTE Standards for Educators のStandard 2.3.b では、教師はオンライン リソースの好奇心と批判的な調査を促進し、デジタル リテラシーとメディアの流暢さを促進する学習文化を確立する必要があると述べています。 学習者の分析と横読みモデルのデジタル市民権スキルを通じてCopilot Chat結果を批判的に評価する教師。 デジタル市民権モジュールでオンラインで成功するために今日の学習者を準備する方法について詳しく説明します。
ソースの確認の練習
教育者はは、学習者と協力して、Microsoft Teams for Education の検索コーチと検索の練習の無料ツールを使用して、これらのスキルを練習できます。 検索コーチは、効果的な質問をしたり、信頼できるソースを発見したりするためのコンテキストとガイダンスを学習者に提供します。 Bing などの検索エンジンで学習者が適用できる概念を紹介するために、多くのレッスン プランを利用できます。 教師は、検索の練習を使用して、ソースの有効性、信頼性、正確性、関連性、バイアスを評価する方法を理解する学習者の進行状況を追跡できます。
検索コーチ & 検索の練習を使用して信頼できるソースを識別するように学習者に教える (アクセシビリティ対応ファイル)
精度を評価し、Copilot Chatで信頼性の高いコンテンツを生成するためのヒント
精度を評価し、信頼性の高いコンテンツを生成するためのプロアクティブな手順に関するいくつかの提案を次に示します:
- 参照を注意深く読んでください。 ソース リンクを選択し、AI モデルがソース テキストを正しく解釈したことを確認します。
- オープンエンドの質問ではなく、特定の情報を要約するようにCopilot Chatに指示します。 たとえば、「クラス ディスカッションを始める最善の方法は何ですか」と尋ねる代わりに、「クラス ディスカッションを始める 5 つの方法を挙げよう」というプロンプトを書きます。具体的であることは、AI モデルがより正確で関連性の高い応答を生成するのに役立ちます。
- 応答の整合性をチェックするために、複数の方法でプロンプトを言い換えます。
- さまざまな観点からさまざまな質問を提起して、応答がどのように比較されるかを確認します。