AI システムには、テクノロジだけでなく、それを使用するユーザー、影響を受けるユーザー、および展開される環境も含まれます。 エージェントは公平性、説明責任、透明性、倫理的な行動を確保するために責任あるAIの原則を遵守しなければなりません。
すべてのユーザーを公平に扱い、開発者とユーザーにそのパフォーマンスに対する責任を負わせ、AI 運用の透明性を確保し、倫理基準を遵守するように AI システムを設計します。
Microsoft は、人を第一に考える原則に基づいて、AI の発展に取り組んでいます。 生成モデルには大きな潜在的メリットがありますが、慎重な設計と慎重な軽減策がなければ、このようなモデルは不適切なコンテンツや有害なコンテンツを生成する可能性があります。 マイクロソフトは、悪用や予期せぬ被害を防ぐために多大な投資を行ってきました。これには、マイクロソフトの AI の責任ある利用に関する原則の組み込み、行動規範の採用、顧客をサポートするためのコンテンツ フィルターの構築、生成 AI を使用する際に顧客が考慮すべき責任ある AI の情報とガイダンスの提供などが含まれます。
Copilot Studioと生成AI機能は、基本的なセキュリティおよびプライバシー慣行と Microsoftの責任あるAI標準に従っています。
詳細情報:
責任ある AI の基本原則
責任ある AI の基本原則には、公平性、説明責任、透明性、倫理が含まれます。 Copilot Studioで構築されたエージェントがこれらの基本原則を遵守していることを保証するには、いくつかの重要な実践が必要です。
- 公平性: 多様で代表的なトレーニング データを使用して、バイアスを最小限に抑えます。 トレーニング データを定期的に更新し、監査人と協力して公平性と均等性を検証します。
- 説明責任: AI プロジェクトに関与するチーム メンバーの役割と責任を明確に定義します。 公平性と説明責任を優先する倫理基準を確立し、遵守します。
- 透明性:ユーザーが生成AI機能を使うエージェントを使用していることを確実に理解させましょう。 AI ソリューションが選択された理由、設計方法、監視と更新の方法を明確に伝えます。
- 倫理: インクルーシブな労働力を育成し、開発プロセスの早い段階で多様なコミュニティからの意見を求めます。 倫理的な懸念やパフォーマンスの格差について、モデルを定期的に評価およびテストします。 定期的な監査を含むガバナンスの枠組みを確立します。
これらの実践を開発や展開プロセスに取り入れ、責任あるAIの基本原則に準拠したエージェントを作りましょう。
データのプライバシーとセキュリティ
特にエージェントが機密データを扱う可能性があるため、データのプライバシー確保は非常に重要です。 Copilot Studioでエージェントを計画する際には、いくつかの主要なリスクに対応し、効果的な緩和策を実施することが不可欠です。
- プラットフォーム機能: データを保護するネイティブ コントロールとプラットフォーム機能を理解します。 Copilot Studioの責任あるAIFAQをよく確認し、Microsoftが開発する特定のAIシステムや機能を理解してください。
- データの暗号化: サービス側のテクノロジにより、保存や転送に際して組織コンテンツを暗号化し、堅牢なセキュリティを実現します。 接続はトランスポート層セキュリティ (TLS) で保護され、Dynamics 365、Power Platform、Azure OpenAI 間のデータ転送は Microsoft バックボーン ネットワーク経由で行われるため、信頼性と安全性が両方とも保証されます。 詳細については、Microsoft Cloud の暗号化をご参照ください。
- アクセス制御:データは現在のユーザーのアクセスレベルに基づいてエージェントに提供されます。 Microsoft Entra ID を使用してロールベースのアクセス制御 (RBAC) を実装し、承認されたユーザーのみがデータにアクセスできるようにします。 最小特権の原則を適用して、必要なものだけにアクセスを制限します。 Copilot Studioプロジェクトのセキュリティおよびガバナンスの重要な概念についてのガイダンスを確認しましょう。
- 監視と監査:エージェントのアクセスや使用状況を定期的に監視し、潜在的なセキュリティインシデントを検出・対応します。 詳細な監査ログを保持して、データへのアクセスと変更を追跡します。
- コンプライアンスとガバナンス: GDPR (一般データ保護規則)、HIPAA (医療保険の相互運用性と説明責任に関する法律)、CCPA (カリフォルニア州消費者プライバシー法) などの関連するデータ プライバシー規制へのコンプライアンスを確保します。 倫理的な AI プラクティスを実装して、バイアスを回避し、AI 出力の公平性を確保します。
- ユーザー教育とトレーニング: セキュリティのベストプラクティスとデータプライバシーの重要性についてユーザーにトレーニングします。 セキュリティ ポリシーと手順の更新と変更について、ユーザーに通知します。
バイアスの認識と軽減
システム内のバイアスに対処することの重要性を認識し、公平性を確保して AI 応答のバイアスを回避します。
- 多様で代表的なデータ: 固有のバイアスを最小限に抑えるために、トレーニング データが多様でさまざまな人口統計を代表するものであることを確認します。 データの偏りや不均衡を定期的に監査し、必要に応じて是正措置を講じます。
- バイアスの検出と軽減のツール: ツールと手法を使用して、統計分析や公平性メトリックなど、AI モデルのバイアスを検出します。 リサンプリング、再重み付け、敵対的バイアス除去などのバイアス除去の手法を実装して、モデルのバイアスを低減します。
- ヒューマン イン ザ ループ: 人間によるレビューとフィードバックのループを組み込んで、AI がもたらす可能性のあるバイアスを特定して修正します。 倫理委員会またはガバナンス委員会を設立して AI の開発と展開を監督し、倫理基準が満たされていることを確認します。
- 透明性と信頼:ユーザーに生成AI機能を持つエージェントを使用していることを確実に伝えましょう。 AI ソリューションが選ばれた理由を明確に伝え、その設計方法と監視と更新方法に関する情報を提供します。
- 継続的な監視と改善: AI システムのバイアスとパフォーマンスの問題を継続的に監視し、必要に応じてモデルを更新します。 より多様なデータを更新してモデルを定期的に再トレーニングすることで、モデルの公平性と偏りがないようにします。
継続的な監視と評価
エージェントの改善を続けてください。 継続的な監視と評価の枠組みを確立し、ユーザーのフィードバックや進化する倫理基準をアップデートに組み込むこと。
- フィードバック ループ: ユーザーが不正確さを報告できるフィードバック メカニズムを確立してください、そしてそれを使用してモデルを改良および改善してください。
- 監視と監査: AI システムのアクセスと使用状況を定期的に監視することで、潜在的なセキュリティ インシデントを検出して対応します。 詳細な監査ログを保持して、データへのアクセスと変更を追跡します。
次のステップ
要約チェックリストを使ってプロジェクトが実装に進む準備ができているかを確認し、ベストプラクティスのコールアウトを適用してプロジェクトアプローチを洗練させ、導入フェーズに移行しましょう。