ジェネレーティブ AI (GenAI) は、組織がさまざまな容量で GenAI に積極的に取り組んだり実験したりする中で、かつてない速度で採用されています。 セキュリティ チームは、組織内の AI の使用状況を事前に把握し、対応する制御を実装することで、リスクをより効果的に軽減および管理できます。 この記事では、機密データに対するリスクの評価など、組織内の AI アプリの使用を検出する方法について説明します。
これはシリーズの 2 番目の記事です。 この記事を使用する前に、この記事で規定されている機能を使用して環境を準備するための AI セキュリティの準備 に関する記事のタスクを完了していることを確認してください。
Microsoft には、構築して使用する AI のデータ、アクセス、ユーザー、アプリケーションのリスクを可視化するのに役立つツールが用意されています。 これらの機能は、AI の強力なセキュリティ体制を構築しながら、脆弱性に事前に対処するのに役立ちます。
次の表では、図について説明し、これらの機能を実装する手順についても説明します。
| ステップ | 課題 | 範囲 |
|---|---|---|
| 1 | Microsoft Entra Agent ID を使用して、Microsoft Copilot Studio と Azure AI Foundry 全体で作成されたすべてのエージェント ID を可視化します。 | Microsoft Copilot Studio と Azure AI Foundry で作成されたエージェント |
| 2 | Microsoft Purview Data Security Posture Management (DSPM) for AI を使用して、AI の使用状況を可視化します。 機密データを保護するためのポリシーを適用します。 | サポートされている AI サイトを含む、サードパーティの大きな言語モジュール (LLM) を使用する副操縦士、エージェント、その他の AI アプリ。 |
| 3 | Microsoft Defender for Cloud Apps を使用して AI アプリを検出、承認、ブロックする | SaaS AI アプリ |
| 4 | 環境内にデプロイされた AI ワークロードを検出し、Microsoft Defender for Cloud Security Posture Management (CSPM) を使用してセキュリティの分析情報を取得する | カスタムビルドの Azure AI ベースの AI アプリケーション |
手順 1 - Entra エージェント ID を使用してエージェントを可視化する (プレビュー)
組織が AI エージェントを構築して採用する場合、これらの非人間のアクターを追跡することは困難です。 これらのエージェントを強力にすること、つまり複雑なタスクを自律的に処理し、仮想チームメイトのように行動する能力も懸念を引き出します。 そのため、エージェント ID を追跡し、そのライフサイクルとアクセス許可を管理し、組織のリソースへのアクセスを慎重にセキュリティで保護することが重要です。
Microsoft Entra Agent ID (プレビュー) は、Microsoft Copilot Studio と Azure AI Foundry 全体で作成されたすべてのエージェント ID の統合ディレクトリを提供します。 これは、組織で急速に増加しているエージェントの可視性、保護、ガバナンスをさらに強化するための最初のステップです。
| 課題 | 推奨リソース |
|---|---|
| 組織内のすべてのエージェントを表示する | Microsoft Entra 管理センターにサインインし、 エンタープライズ アプリケーションに移動します。 リスト ビューの上部にあるフィルター バーで、[アプリケーションの種類] ドロップダウンを [エージェント ID (プレビュー)] に設定します。 エンタープライズ アプリケーションの一覧が絞り込まれると、テナントに登録されている AI エージェント (Copilot Studio または Azure AI Foundry を使用して作成) が表示されます。 |
| 詳細については、このブログを参照してください。 | Microsoft Entra Agent ID の発表: AI エージェントのセキュリティ保護と管理 |
手順 2 - AI のデータ セキュリティ体制管理 (DSPM) を使用して AI の使用状況を可視化する
AI 用 Microsoft Purview Data Security Posture Management (DSPM) は、組織内での AI の使用方法、特にデータと AI ツールの対話方法に焦点を当てています。 生成 AI サイトで動作します。 DSPM for AI は、Microsoft Copilots や、ChatGPT Enterprise、Google Gemini などのサードパーティの SaaS アプリケーションに、より詳細な分析情報を提供します。
次の図は、AI の使用がデータに与える影響に関する集計ビューの 1 つ (生成 AI アプリごとの機密性の高いインタラクション) を示しています。
DSPM for AI には、生産性と保護のいずれかを選択しなくても、AI を安全に導入するのに役立つ一連の機能が用意されています。
- 組織内の AI アクティビティに関する分析情報と分析
- AI プロンプトでデータを保護し、データ損失を防ぐためのすぐに使用できるポリシー
- データの潜在的な過剰共有を識別、修復、監視するためのデータ リスク評価
- テナント内のデータに基づく推奨アクション
- 最適なデータ処理とポリシーの格納を適用するためのコンプライアンス制御
サード パーティの AI サイトとの対話を監視するには、デバイスを Microsoft Purview にオンボードする必要があります。 「AI セキュリティの準備」のガイダンスに従った場合は、デバイスを Microsoft Intune で管理に登録し、これらのデバイスを Defender for Endpoint にオンボードしました。 デバイスオンボードは、Microsoft 365 (Microsoft Purview を含む) と Microsoft Defender for Endpoint (MDE) 間で共有されます。
次のリソースを使用して、AI 用の DSPM を使用して AI アプリとデータを検出します。
| 課題 | 推奨リソース |
|---|---|
| デバイスが Microsoft Purview にオンボードされていることを確認します。 | デバイスがまだ Defender for Endpoint にオンボードされていない場合は、いくつかの方法でデバイスをオンボードできます。 「 Windows デバイスを Microsoft 365 にオンボードする」を参照してください。 |
| 前提条件と AI 用 DSPM のしくみを理解する | AI 用の Microsoft Purview データ セキュリティ体制管理の展開に関する考慮事項 |
| AI 用の DSPM の使用を開始する | AI にデータ セキュリティ体制管理を使用する方法 |
| サポートされている AI サイトを確認する | データセキュリティとコンプライアンス保護のために Microsoft Purview でサポートされている AI サイト |
手順 3 - Microsoft Defender for Cloud Apps を使用して AI アプリを検出、承認、ブロックする
Microsoft Defender for Cloud Apps は、セキュリティ チームが SaaS GenAI アプリと使用状況を検出するのに役立ちます。
Defender for Cloud Apps アプリ カタログには、Microsoft Bing Chat、Google Bard、ChatGPT などの大規模言語モデル (LLM) アプリ用の Generative AI カテゴリが含まれています。 Defender for Cloud Apps では、1000 を超える生成 AI 関連アプリがカタログに追加されており、組織での生成 AI アプリの使用方法を可視化し、それらを安全に管理できます。
Defender for Cloud Apps を使用すると、次のことができます。
- 生成AIアプリにフィルターをかける
- 組織で使用されている AI アプリを検出する
- セキュリティと規制のコンプライアンス全体で 90 以上のリスク要因を含む、各アプリのすぐに使用可能なリスク評価を表示する
- 特定のアプリの使用を承認または承認解除 (ブロック) する
- リスク スコア、1 日あたりのユーザー数など、設定した条件に基づいて AI アプリを引き続き検出するポリシーを作成します。 条件を満たすアプリを自動的に承認解除することもできます。
次の手順では、次のリソースを使用します。
| 課題 | 推奨リソース |
|---|---|
| Defender for Cloud Apps をパイロットして展開する | Microsoft Defender for Cloud Apps をパイロットして展開するにはどうすればよいですか? |
| このビデオ チュートリアルを確認する | Defender for Cloud Apps を使用して環境内で使用されている生成 AI アプリを検出する |
| 検出されたアプリを表示する | Cloud Discovery ダッシュボードを使用して検出されたアプリを表示する |
| クラウド アプリを見つけてリスク スコアを計算する | クラウド アプリ カタログとリスク スコア - Microsoft Defender for Cloud Apps |
| 検出されたアプリの管理 | 検出されたアプリを管理する - Microsoft Defender for Cloud Apps |
手順 4 - 環境内にデプロイされた AI ワークロードを検出し、Microsoft Defender for Cloud でセキュリティの分析情報を取得する
Microsoft Defender for Cloud の Defender Cloud Security Posture Management (CSPM) プランには、環境に組み込まれている AI アプリの検出から始まる AI セキュリティ体制管理機能が用意されています。
- コードからクラウドへのアプリケーション コンポーネント、データ、AI アーティファクトを含む生成 AI 部品表 (AI BOM) の検出。
- 組み込みの推奨事項を使用し、セキュリティ リスクを調査して修復することによる、生成 AI アプリケーションのセキュリティ態勢の強化。
- 攻撃パス分析を使用したリスクの特定と修復。
クラウド セキュリティ エクスプローラーを使用して、環境内で実行されている生成 AI ワークロードとモデルを特定します。 クラウド セキュリティ エクスプローラーには、事前構成済みのクエリが含まれています。
- 使用中の AI ワークロードとモデル
- Azure OpenAI をプロビジョニングする生成 AI の脆弱なコード リポジトリ
- 既知の Generative AI の脆弱性を持つコンテナー イメージを実行しているコンテナー。
独自のクエリを構成することもできます。
次の手順では、次のリソースを使用します。
| 課題 | 推奨リソース |
|---|---|
| 詳細については、「AI セキュリティ態勢管理」を参照してください。 | Defender for Cloud を使用した AI セキュリティ体制管理 |
| AI ワークロードの検出 | 使用中の AI ワークロードとモデル |
| 生成 AI アーティファクトのデプロイ前のリスクを探る | 生成 AI アーティファクトを事前デプロイするリスク |
AI をセキュリティで保護するための次の手順
組織内の AI の使用状況を検出した後、次の手順は保護を適用することです。
- AI アプリで使用される機密データを保護する
- AI 専用の脅威保護を実装する
このシリーズの次の記事「AI アプリを使用しているときに組織を保護する方法」を参照してください。


![Microsoft Defender の [Cloud Discovery] ページのスクリーンショット。](media/cloud-discovery-defender-cloud-apps.png)

