AI セキュリティ体制は、全体的なセキュリティ戦略の重要な部分です。 AI は、データ保護など、サイバーセキュリティ戦略の特定の要素を優先します。 この記事は、AI をセキュリティで保護するための戦略と優先順位を開発するのに役立ちます。 このコレクションの後続の記事では、AI コンパニオン、ツール、新しいアプリを採用するときに優先順位を付けるサイバーセキュリティの特定の要素を特定するのに役立ちます。
セキュリティ体制は、組織の全体的なサイバーセキュリティ防御機能として定義され、進行中のサイバー セキュリティの脅威に対処するための準備と運用状態のレベルと共に定義されます。 この体制は、組織の運用状態や幸福に関連する他の主要なメトリックと同様に、定量化可能で測定可能である必要があります。
AI の強力なセキュリティ体制を構築するには、組織内、特に組織全体のリーダーが戦略と一連の優先順位と目標を策定する作業が含まれます。 次に、目的を達成するために必要な技術的な作業を特定し、さまざまなチームがそれらを達成するように導きます。 このライブラリの記事では、AI に固有のガイダンスを持つ方法論を提供します。
- 基盤となるセキュリティ保護を使用して環境を準備します。 これらの保護の多くが既に設定されている可能性があります。
- アプリが使用しているデータの種類など、組織内で使用されている AI アプリを検出します。
- 組織内の AI ツールの使用を保護します。 これには、AI 固有のデータ保護機能が含まれており、組織が強力な脅威保護を実装していることを確認します。
- 管理する コンプライアンスのためにAIを。
このライブラリは、Microsoft Learn の次のフレームワークと共に使用します。
画像には:
- このライブラリ (AI ライブラリのセキュリティ) を使用して、環境内の AI アプリとデータをセキュリティで保護する機能を実装する方法について説明します。 これらの保護は、ゼロ トラスト基盤の構築に役立ちます。
- ゼロ トラスト導入フレームワークを使用して、エンドツーエンドのセキュリティに向けた進歩を続けます。 ゼロ トラストビジネスシナリオはそれぞれ、AI アプリとデータのセキュリティも向上します。
- AI 用のクラウド導入フレームワークを使用して、生成型 AI や非生成型 AI を含む、AI の導入のためのエンド ツー エンドのロードマップを開発します。 このライブラリには、AI テクノロジを選択するための戦略、AI をセキュリティで保護および管理するためのプロセス、および AI の設計と実装のためのリソースが含まれています。
ビジネス リーダーの動機を理解する
強力な AI セキュリティ体制により、イノベーションが可能になり、組織は自信と機敏性を持って AI を構築してデプロイできるようになります。 目標は、信頼、コンプライアンス、運用の安定性を損なう可能性のあるリスクから保護しながら、AI システムを自信を持って構築、デプロイ、スケーリングできるように組織を支援することです。 組織は、AI イニシアチブの基盤にセキュリティを組み込むことで、責任を持って AI の可能性を最大限に引き出し、意図しない損害の原因ではなく戦略的資産であり続けることができます。
ビジネス リーダーと連携して、戦略と優先順位の開発を開始します。 リーダーの動機と、AI のセキュリティ体制を気にする理由は何ですか? 次の表に、パースペクティブの例を示しますが、これらの各リーダーやチームと会い、互いの動機を共有して理解することが重要です。
| 役割 | AI の強力なセキュリティ体制を構築することが重要な理由 |
|---|---|
| 最高経営責任者 (CEO) | AI システムは、戦略的な意思決定と顧客との対話をますます形成します。 AI の侵害や操作は、意思決定の不十分、規制の調査、評判の低下、信頼の喪失につながる可能性があります。 強力な AI セキュリティは、組織が会社の評判を保護し、法的コンプライアンスを確保し、AI 変革を成功させるために不可欠です。 |
| 最高マーケティング責任者 (CMO) | AI ツールは、顧客の分析情報、ターゲット設定、パーソナル化を促進します。 これらのツールが侵害されると、不適切なコンテンツやターゲット設定によって、データ リーク、偏った出力、ブランドの損傷につながる可能性があります。 AI をセキュリティで保護することで、顧客エンゲージメントに対する信頼が確保され、ブランドの整合性が維持され、PR 災害が防止され、顧客のプライバシー保護に対する会社のコミットメントが示されます。 |
| 最高情報責任者 (CIO) | セキュリティで保護された AI 環境は、システムの信頼性を確保し、未承認のアクセスを防ぎ、運用上の回復性を維持するために不可欠です。 これにより、CIO は、企業を不当なリスクにさらすことなく、ビジネスを強化する AI テクノロジを自信を持って統合できます。 |
| 最高情報セキュリティ責任者 (CISO) | AI では、新しい攻撃面と新しいリスクが導入され、既存のリスクも増幅されます。 新しい攻撃対象領域には、プロンプト、応答、モデル、RAG データ、モデル コンテキスト プロトコル (MCP)、トレーニング データとデータポイズニング、脱獄攻撃、データ セキュリティなどがあります。 CISO は、エンタープライズ セキュリティ体制を維持するために、脅威モデリングと AI パイプラインのセキュリティ保護に取り組む必要があります。 堅牢な AI セキュリティは、組織の資産を保護し、セキュリティ フレームワークに準拠し、インテリジェント システムの時代に顧客と利害関係者の信頼を維持するための全体的なサイバー防御戦略の延長です。 |
| 最高技術責任者 (CTO) | 強力な AI セキュリティ体制は、CTO が組織の技術資産を保護し、AI システムが意図したとおりに確実に実行されるようにするために不可欠です。 CTO は、AI 開発ライフサイクルにセキュリティを組み込むことで、機密性の高いアルゴリズムの侵害を防ぎ、AI 駆動型製品の高品質と信頼を維持するのに役立ちます。 これにより、過度のリスクを伴わずにイノベーションを進められます。 |
| 最高運用責任者 (COO) | AI は、サプライ チェーン、ロジスティクス、運用における重要なプロセスを自動化します。 AI システムに対する攻撃は、サービスを中断し、運用リスクを高め、コストのかかる遅延を引き起こす可能性があります。 強力な AI セキュリティ体制により、ビジネス継続性と効率性が確保されます。 |
| 最高財務責任者 (CFO) | CFO は、堅牢な AI セキュリティ体制を組織の保護に不可欠と見なします。 予期しない財務上の損失を回避し、法律と報告義務を確実に遵守するのに役立ちます。 |
AI の進化する脅威の状況に対処する
GenAI は新しい攻撃面を導入し、リスクの状況を効果的に変えます。 従来の脅威ベクトルの管理に加えて、セキュリティとリスクのリーダーは、データ漏えいやデータの過剰共有などの増幅されたリスクや、迅速な挿入、不適切な情報、モデルの脆弱性、不適切な情報などの新しいリスクにも対処する必要があります。 進化する脅威の状況に対処することは、信頼できる AI を実現するために不可欠です。
この図は次のことを示しています。
- GenAI の攻撃対象面は、新たなリスクと拡大されたリスクをもたらします。
- 変更されていない脅威ベクトルには、アプリケーション、ID、エンドポイント、ネットワーク、データ、クラウド リソースが含まれます。
- GenAI では、プロンプト、応答、AI オーケストレーション、トレーニング データ、RAG データ (Retrieval-Augmented 生成データ、つまり、データまたは言語モデルを使用した他の外部データの相互作用から生じるデータ)、AI モデル、AI プラグインなど、新しい攻撃対象領域が導入されています。
- GenAI では、データ漏えい、脱獄 (セキュリティで保護されているデバイスの侵害)、間接的な迅速な挿入、モデルの脆弱性など、新しい増幅されたリスクが導入されています。
現在、AI の最も一般的なセキュリティ インシデントは次のとおりです。
- データ漏えいと過剰な共有 - ユーザーは機密データをシャドウ AI アプリ (IT チームによって承認されていないアプリ) に漏えいする可能性があります。 ユーザーは、AI アプリを使用して機密データにアクセスする場合もあります。
- 脆弱性と新たな脅威- 不正なアクターは、AI アプリの脆弱性を悪用して貴重なリソースにアクセスする可能性があります。
- コンプライアンス違反— 新たな AI 規制を含む規制によって、不確実性が高まる可能性があります。 非準拠の AI の導入により、責任が増加する可能性があります。
次の 2 つのシナリオ例では、AI の強力なセキュリティ体制を構築する必要性が強調されています。
データの過剰共有と漏洩はどのように発生しますか?
この例では、Contoso の従業員である Adele が、複数の AI アプリで機密データを検索し、使用します。
| ステップ | 説明 | 未軽減のリスク |
|---|---|---|
| 1 | Adele は、チーム メンバーが Project Obsidian を参照しているのを聞きます。 彼女は Microsoft 365 Copilot を使用して、それに関する詳細情報を見つけます。 Copilot は、概要とドキュメントへのリンクを彼女に提供します。 | Copilot では、機密データを制限なく処理できます。 機密データは、アクセス権を持つべきではない従業員を含め、従業員に過剰に露出しています。 |
| 2 | Adele は引き続き Copilot を使用して、Project Obsidian に関する詳細情報を見つけて収集します。 | AI アプリの異常を検出するためのコントロールはありません。 |
| 3 | 好奇心から、Adele は ChatGPT の概要を確認したいと考えています。そのため、ファイルの内容を ChatGTP に貼り付けます。 | コンシューマー AI アプリへのデータ漏洩を防ぐためのデータ損失防止 (DLP) はありません。 |
| 4 | プロジェクトの詳細が途中で明らかにされ、データ侵害が発生しました。 そのため、Contoso は職場内のすべての AI アプリを禁止しました。 | コンシューマー AI を完全に禁止すると、暗い使用が増加する可能性があります。 |
Contoso は、AI アプリの使用を準備、検出、保護する作業を行うことで、これらのリスクを軽減できました。
| フェーズ | 説明 |
|---|---|
| 準備する | Entra と SharePoint Advanced Management を使用して、従業員のリソースへのアクセスを適切なサイズに設定します。 Purview Information Protection を使用して、機密データの分類とラベル付けを行います。 |
| 発見 | Purview DSPM for AI を使用してデータ リスクを検出します。 過剰共有評価レポートを使用して、過剰共有リスクを評価します。 |
| 守る | Microsoft 365 Copilot に Purview DLP を適用して、Copilot が機密データを要約できないようにします。 Purview Insider Risk Management を使用して、異常アクティビティを検出して調査します。 アダプティブ保護を使用して、リスクの高いユーザーのアクセスを動的に制限します。 Defender for Cloud Apps を使用して、危険度の高いアプリをブロックします。 Entra 条件付きアクセスを使用して、Adele に ChatGPT へのアクセスを許可する前に利用規約への同意を要求します。 Purview エンドポイント DLP を使用して、コンシューマー AI アプリへの機密データの貼り付けをブロックします。 |
AI がコンプライアンスのリスクを導入する方法
この次の例では、Contoso の AI ガバナンスをリードするために Jane が割り当てられます。
| ステップ | 説明 | 未軽減のリスク |
|---|---|---|
| 1 | Jane は、規制要件を IT チームが実装するための実用的なコントロールに解釈することに苦労しています。 | 規制要件とテクノロジの両方に精通している専門家の不足。 |
| 2 | Jane はリスク評価の準備を始めますが、Contoso で開発および利用されている AI システムについては知らないままです。 また、使用状況と潜在的なコンプライアンス リスクも把握していません。 | 環境にデプロイされた AI システムを可視化しません。 AI の使用に関するガバナンスはありません。 |
| 3 | いくつかの内部インタビューの後、Jane は、開発者が約 14 個の AI アプリを同時に構築していることを認識します。このアプリには、セキュリティ、安全性、プライバシー制御のさまざまな標準が実装されています。 | 開発者が AI システムに組み込まれているコントロールを可視化しません。 |
| 4 | 一部の AI アプリでは、標準的なガードレールなしで個人データを使用してリスクを評価します。 | リスク評価は行われません。 |
| 5 | お客様は、Contoso AI が有害なコンテンツや未設定のコンテンツを作成することについて不平を言っています。 | AI 出力の制御が不足しています。 |
AI 規制は、AI ガバナンスを担当するリーダーに不確実性と圧倒的な責任リスクをもたらします。 何も変更することなく、Contoso は AI 規制要件に違反するリスクを負い、ペナルティや評判の損害に直面する可能性があります。
Contoso は、AI アプリの使用を準備、検出、保護する作業を行うことで、これらのリスクを軽減できました。
| フェーズ | 説明 |
|---|---|
| 準備する | Purview コンプライアンス マネージャーを使用して、コンプライアンス要件を満たすのに役立つコントロールの実装に関するガイダンスを取得します。 |
| 発見 | Defender for Cloud を使用して、クラウド環境にデプロイされている AI リソースを検出します。 Defender for Cloud Apps を使用して、使用中の SaaS AI アプリを検出します。 |
| ガバナンス | Microsoft Purview 監査、データ ライフサイクル管理、コミュニケーション コンプライアンス、電子情報開示を使用して AI の使用を管理します。 開発者が AI プロジェクトの詳細を文書化するには、 Azure AI Foundry の AI レポートを使用します。 Priva プライバシー評価を使用して、各 AI プロジェクトのプライバシー リスクを事前に評価します。 Azure AI Content Safety を使用して、有害なコンテンツや固定されていないコンテンツのリスクを軽減します。 |
ガバナンス機能を事前に使用することで、組織は AI を採用しながらリスクを評価し、対処できます。
AI の効果的なセキュリティを実装するための 5 つの手順
GenAIの迅速な実装に伴うリスクの認識が高まるにつれて、多くの組織は、セキュリティ対策を強化するために多くのリソースを割くことで積極的に対応しています。 セキュリティとリスクのリーダーは、安全で安全な AI イノベーションへの道を作成するために、いくつかの実行可能な手順を実行できます。
これらの推奨プラクティスは、組織の利益を保護しながら、コラボレーション環境を促進し、GenAI の進歩をサポートする効果的なセキュリティ対策の実装に焦点を当てています。
手順 1 - AI 用のセキュリティ チームを構築する
多くの企業は、AI によってもたらされる固有のセキュリティの課題を管理するために、専用の部門間チームを形成する必要があることを認識しています。 専用のセキュリティ チームにより、AI システムが厳密にテストされ、脆弱性が迅速に特定され軽減され、セキュリティ プロトコルが継続的に更新され、進化する脅威に対応できます。
調査回答者の 80% は、現在 (45%) か、AI のセキュリティに対処するための専用チーム (35%) を持つ予定です。 10 人に 6 人以上が、チームがセキュリティの意思決定者に報告すると述べたため、注意深い監視だけでなく、AI 関連のリスクに対処するための戦略的ビジョンとリーダーシップも確保されます。
特に、これらの専用セキュリティ チームのチーム サイズの中央値 (意図されたチーム サイズ) は 24 人の従業員であり、企業が AI イニシアチブの保護にコミットしている多くのリソースを強調しています。 会社の規模を考慮すると、チームのサイズはさまざまです。
組織が AI の効果的な部門間セキュリティ チームを正常に構築するために使用できるベスト プラクティスをいくつか次に示します。
AI 委員会を形成して部門間のコラボレーションを促進する
AI のセキュリティは、IT 部門を超えた集合的な取り組みです。 セキュリティ、IT、法律、コンプライアンス、リスク管理などのチーム間のコラボレーションを促進し、包括的なセキュリティ戦略を作成します。 さまざまな視点と専門知識を持つことで、セキュリティ プロトコルの有効性が向上します。
多様なスキル セットを採用する
AI のセキュリティ チームを成功させるには、スキルのバランスが必要です。 データ サイエンス、サイバーセキュリティ、ソフトウェア エンジニアリング、機械学習に関する専門知識を持つチーム メンバーを探します。 この多様性により、技術開発から脅威防止まで、セキュリティのさまざまな側面が確実にカバーされます。
明確な役割と責任を確立する
効果的な生産性を実現するために、各チーム メンバーの役割を明確に定義します。 すべてのユーザーが自分の特定の責任を理解していることを確認します。これにより、アカウンタビリティが促進され、作業の重複が回避されます。
継続的なトレーニングと開発に投資する
AI テクノロジの急速な進化により、セキュリティ チームの継続的な教育が義務付けられています。 AI のセキュリティに関連するプラクティス、新たな脅威、倫理的な考慮事項に焦点を当てたトレーニング プログラムとワークショップへのアクセスを提供します。 この投資は、チーム メンバーに権限を与えるだけでなく、潜在的な脆弱性に先んじて組織を維持できるようにします。
手順 2 - リソースを最適化して GenAI をセキュリティで保護する
組織内での AI アプリケーションの導入は、運用に革命を起こすだけでなく、リソースと予算の割り当て (特に IT セキュリティ) に大きな変更を加える必要があります。
セキュリティとリスクのリーダーの大多数 (78%) は、AI によってもたらされる固有の課題と機会に対応するために、IT セキュリティ予算が増加すると考えています。 この調整は、いくつかの理由で重要です。 AI システムでは、安全に動作するために堅牢なセキュリティ インフラストラクチャが必要です。 これには、既存のセキュリティ システムのアップグレード、より厳格なアクセス制御の実装、データのセキュリティとガバナンスの強化が含まれる場合があります。 新しい新しい AI 規制要件を満たすために、他のリソースも必要になる場合があります。
この記事の前半では、ビジネス リーダーと組織全体のさまざまなビジネス ユニットの動機を理解するための作業を行うことをお勧めします。 最も懸念事項を特定し、ビジネス目標を共有することは、目的を達成するためのリソースの交渉に向けた重要なステップです。
コンプライアンス評価、法的相談、監査のための資金の割り当ては、組織の AI 戦略を業界のフレームワークに合わせ、より安全で安全で準拠した AI の使用とシステムを実現するために不可欠になります。 継続的な従業員のトレーニングとスキル開発のための資金の優先順位付け (AI のセキュリティ ツールに関する特別なトレーニング、リスク管理戦略、AI の使用における倫理的な考慮事項など) も、予算とリソースを割り当てる際に考慮することが重要です。
手順 3 - ゼロ トラストアプローチを採用する
ゼロ トラスト 戦略では、AI 導入の準備を行うときに、セキュリティとリスクのリーダーに、データの過剰共有や過剰な露出、シャドウ IT など、主要な懸念事項に対処するための一連の原則を提供します。 ゼロ トラスト アプローチは、ネットワーク中心のフォーカスから資産とデータ中心のフォーカスに移行し、その発生元に関係なく、すべてのアクセス要求を潜在的な脅威として扱います。
ゼロ トラストは、すべてのユーザーとデバイスの ID を常に検証し、明確なアクセス許可を持つユーザーのみが機密情報に到達できることを確認します。 リアルタイム評価に基づいてセキュリティ対策を動的に調整することで、ゼロ トラストはデータ漏えいのリスクを最小限に抑え、内部と外部の両方の脅威から組織を保護します。 継続的な検証、最小限の特権アクセス、動的なリスク管理は、このアプローチの基礎であり、組織のエンドツーエンドのセキュリティの成功をサポートする堅牢で適応可能なセキュリティ フレームワークを提供します。
ゼロ トラストを採用することで、組織は AI デプロイをセキュリティで保護し、セキュリティが継続的に検証および保護されていることを認識できます。 ゼロ トラストにより、組織は自信を持って AI を受け入れ、AI の強力な機能が安全かつ効果的に活用されます。
Microsoft によって提供される AI のすべてのセキュリティ ガイダンスは、ゼロ トラスト原則に固定されています。 GenAI に推奨されるセキュリティ ガイダンスに従うことで、強力なゼロ トラスト基盤を構築します。
手順 4 - 信頼できるパートナーとの共同責任に投資する
戦略と優先順位を通知するためによく使用されるリソースは、共同責任モデルです。 組織内の AI の使用をセキュリティで保護する責任は、使用されるアプリの種類に基づいています。 投資するパートナーは、お客様と責任を共有します。
共同責任モデルは、セキュリティ チームが組織で次の選択を行うのに役立ちます。
- 組織の責任を軽減する GenAI アプリ。
- 信頼を得たパートナー。
この図は、お客様と Microsoft の両方の責任のバランスをまとめたものです。 多くの組織では、共有責任モデルを使用して、信頼できるプロバイダーと連携して SaaS アプリの使用に優先順位を付け、カスタムで構築されたアプリの数を減らします。
詳細については、「 AI 共有責任モデル - Microsoft Azure」を参照してください。
多くのセキュリティ専門家は、信頼を得たパートナーとの投資に加えて、セキュリティ ツールとベンダーを統合することをお勧めします。 Microsoft は、連携するツールを使用して AI の包括的なセキュリティ ソリューションを提供し、セキュリティ チームの統合作業の量を大幅に削減します。
手順 5 - AI 用の包括的なセキュリティ ソリューションを採用する
AI では、従来のセキュリティ対策では完全には対処できない可能性がある特定のリスクが導入されます。 AI のセキュリティは、これらのリスクを軽減するように設計されています。
企業の大部分は、AI アプリケーションの使用と開発の両方をセキュリティで保護するために、特殊なツールとプラットフォームを調達することを計画しています。 組織の AI アプリケーションの使用状況と開発をどのようにセキュリティで保護するかについて尋ねられると、ほとんどの調査回答者 (72%) は、AI の使用状況と開発をセキュリティで保護するための新しい専用セキュリティ ソリューションを調達する計画であると答え、64% は既存のセキュリティ ソリューションを使用して AI をセキュリティで保護する計画を示しました。
IT およびセキュリティ のリーダーは、AI の保護とガバナンスのための新しいソリューションの主要な予算共同作成者は、IT 部門 (63%) と情報セキュリティ/サイバーセキュリティ部門 (57%) であると考えています。 これらの調査結果は、既存のセキュリティ ソリューションを引き続き使用することに加えて、AI の増幅された新たなリスクに対処するのに役立つ新しいソリューションを探す必要があることを示しています。
Microsoft は、Microsoft のエンドツーエンドのセキュリティ プラットフォームに基づいて、AI ツールとデータの検出から、AI の脅威を軽減するために特別に設計された保護まで、AI をセキュリティで保護するための包括的なセキュリティ ツールを提供しています。 これらのツールには、高度なダッシュボードとコンプライアンス リソースが含まれており、リスクと規制上の義務を維持するのに役立ちます。
次の図は、AI の導入を保護するために Microsoft が提供するすべての機能の概要ビューです。 これらの機能は、次の表にも一覧表示されます。
| 顧客に関する最も重要な懸念事項 | 能力 |
|---|---|
| データ リークと過剰な共有を防ぐ | - アクセスとエンドポイントの制御 — Microsoft Entra & Intune - AI のデータ セキュリティ体制管理 - Microsoft Purview - データ分類、ラベル付け、保護 - Microsoft Purview - データ損失防止 - Microsoft Purview - 異常と危険なアクティビティの検出と対応 - Microsoft Purview - SaaS アプリのセキュリティ - Microsoft Defender |
| 脆弱性や新たな脅威から AI を保護する | - データのセキュリティとガバナンス - Microsoft Purview - 品質、安全性、およびセキュリティ制御の評価 - Azure AI Foundry - AI 資産 (アプリ、モデル、オーケストレーター、SDK) のセキュリティ体制管理 — Microsoft Defender - モデル ガバナンス ポリシー - Azure Portal - コンテンツの安全性プロンプト シールド - Azure AI - AI ワークロードの脅威保護 - Microsoft Defender |
| 規制要件に準拠するように AI を管理する | - AI 規制と標準に対するコンプライアンス評価 — Microsoft Purview - AI 検出とカタログ - Microsoft Defender - プロンプトと応答の監査、ライフサイクル管理、電子情報開示、コミュニケーション コンプライアンス - Microsoft Purview - プロジェクトの詳細と制御をログに記録する開発者向けの AI レポート - Azure AI Foundry - プライバシーへの影響評価 - Microsoft Priva - 有害なコンテンツ、不適切な情報、保護された素材に対する軽減策 - Azure AI コンテンツの安全性 |
AI をセキュリティで保護するための次の手順
このライブラリでは、段階的なアプローチで AI のセキュリティを実装するプロセスについて説明します。
この一連の記事のガイダンスに従って、AI のセキュリティ保護の詳細を確認し、組織の目標を達成するための機能を特定して実装します。
全体的なセキュリティ体制とゼロ トラストの最適化の詳細については、「セキュリティ体制を 迅速に最新化する」を参照してください。
AI コンパニオンに推奨されるセキュリティ保護の使用を開始するには、「 ゼロ トラスト セキュリティを使用して、Microsoft Copilots を含む AI コンパニオンに備える」を参照してください。


