Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Generative AI (GenAI) wird in einer beispiellosen Rate übernommen, da Organisationen aktiv mit GenAI in verschiedenen Kapazitäten interagieren oder experimentieren. Sicherheitsteams können Risiken effektiver abmildern und verwalten, indem sie proaktiv Einblicke in die KI-Nutzung innerhalb der Organisation erhalten und entsprechende Kontrollen implementieren. In diesem Artikel wird beschrieben, wie Sie die Anwendung von KI-Apps in Ihrer Organisation erkennen können, einschließlich der Einschätzung der Risiken für Ihre sensiblen Daten.
Dies ist der zweite Artikel in einer Reihe. Bevor Sie diesen Artikel verwenden, stellen Sie sicher, dass Sie die Aufgaben in "Vorbereiten der KI-Sicherheit " ausgeführt haben, um Ihre Umgebung mit den in diesem Artikel vorgeschriebenen Funktionen vorzubereiten.
Microsoft bietet Tools, die Ihnen Einblick in Daten, Zugang, Benutzer- und Anwendungsrisiken für die Künstliche Intelligenz geben, die Sie erstellen und verwenden. Diese Funktionen helfen Ihnen dabei, Sicherheitsrisiken proaktiv zu beheben, während Sie einen starken Sicherheitsstatus für KI erstellen.
In der folgenden Tabelle werden die Abbildung beschrieben und die Schritte zur Implementierung dieser Funktionen erläutert.
| Schritt | Aufgabe | Umfang |
|---|---|---|
| 1 | Erhalten Sie Einblicke in alle Agentidentitäten, die in Microsoft Copilot Studio und Azure AI Foundry mit der Microsoft Entra Agent-ID erstellt wurden. | In Microsoft Copilot Studio und Azure AI Foundry erstellte Agenten |
| 2 | Gewinnen Sie Einblicke in die KI-Nutzung mit Microsoft Purview Data Security Posture Management (DSPM) für KI. Wenden Sie Richtlinien an, um vertrauliche Daten zu schützen. | Copiloten, Agents und andere KI-Apps, die große Sprachmodule (LLMs) von Drittanbietern verwenden, einschließlich der unterstützten KI-Websites. |
| 3 | Entdecken, Sanktionieren und Blockieren von KI-Apps mit Microsoft Defender für Cloud-Apps | SaaS KI-Anwendungen |
| 4 | Entdecken Sie bereitgestellte KI-Workloads in Ihrer Umgebung und gewinnen Sie Sicherheitseinblicke mit Microsoft Defender für Cloud Security Posture Management (CSPM) | Maßgeschneiderte Azure AI-basierte KI-Anwendungen |
Schritt 1– Verschaffen Sie sich Einblicke in Agents mit entra Agent ID (Vorschau)
Wenn Organisationen KI-Agents erstellen und einführen, ist es schwierig, diese nicht menschlichen Akteure nachzuverfolgen. Die Sache, die diese Agents mächtig macht – ihre Fähigkeit, komplexe Aufgaben autonom zu verarbeiten und wie virtuelle Teamkollegen zu handeln – löst auch Bedenken aus. Deshalb ist es wichtig, Agentidentitäten nachzuverfolgen, ihren Lebenszyklus und ihre Berechtigungen zu verwalten und den Zugriff auf die Ressourcen Ihrer Organisation sorgfältig zu sichern.
Microsoft Entra Agent ID (Preview) bietet ein einheitliches Verzeichnis aller Agentidentitäten, die in Microsoft Copilot Studio und Azure AI Foundry erstellt wurden. Dies ist ein erster Schritt bei der Bereitstellung noch größerer Sichtbarkeit, Schutz und Governance der schnell wachsenden Anzahl von Agents in Organisationen.
| Aufgabe | Empfohlene Ressourcen |
|---|---|
| Alle Mitarbeiter in Ihrer Organisation anzeigen | Melden Sie sich beim Microsoft Entra Admin Center an, und navigieren Sie zu Enterprise-Anwendungen. Legen Sie in der Filterleiste oben in der Listenansicht das Dropdownmenü "Anwendungstyp" auf "Agent-ID " (Vorschau) fest. Ihre Unternehmensanwendungsliste beschränkt sich sofort auf die Anzeige der KI-Agents (erstellt über Copilot Studio oder Azure AI Foundry), die in Ihrem Mandanten registriert sind. |
| Erfahren Sie mehr, indem Sie diesen Blog überprüfen. | Ankündigung der Microsoft Entra Agent-ID: Sichern und Verwalten Ihrer KI-Agents |
Schritt 2 – Einblicke in die KI-Nutzung mit Data Security Posture Management (DSPM) für KI
Microsoft Purview Data Security Posture Management (DSPM) für KI konzentriert sich auf die Verwendung von KI in Ihrer Organisation, insbesondere darüber, wie Ihre Daten mit KI-Tools interagieren. Es funktioniert mit generativen KI-Websites. DSSM für KI bietet tiefere Einblicke für Microsoft Copilots und SaaS-Anwendungen von Drittanbietern wie ChatGPT Enterprise und Google Gemini.
Das folgende Diagramm zeigt eine der aggregierten Ansichten zu den Auswirkungen der KI-Nutzung auf Ihre Daten – Sensible Interaktionen pro generativer KI-App.
DSPM für KI bietet eine Reihe von Funktionen, mit denen Sie KI sicher einführen können, ohne zwischen Produktivität und Schutz wählen zu müssen:
- Einblicke und Analysen zu KI-Aktivitäten in Ihrem organization
- Sofort einsatzbereite Richtlinien zum Schutz von Daten und zum Verhindern von Datenverlust in KI-Eingabeaufforderungen
- Datenrisikobewertungen zur Identifizierung, Behebung und Überwachung potenzieller Datenüberteilungen
- Empfohlene Maßnahmen basierend auf den Daten in Ihrem Mandanten
- Compliancekontrollen zum Anwenden optimaler Datenverarbeitungs- und Speicherrichtlinien
Um Interaktionen mit KI-Websites von Drittanbietern zu überwachen, müssen Geräte in Microsoft Purview integriert werden. Wenn Sie die Anleitung zum Vorbereiten der KI-Sicherheit befolgt haben, haben Sie Geräte bei der Verwaltung mit Microsoft Intune registriert und diese Geräte dann in Defender für Endpunkt integriert. Das Onboarding von Geräten ist einheitlich für Microsoft 365 (einschließlich Microsoft Purview) und Microsoft Defender für Endpoint (MDE).
Verwenden Sie die folgenden Ressourcen, um KI-Apps und -Daten mit DSPM für KI zu ermitteln.
| Aufgabe | Empfohlene Ressourcen |
|---|---|
| Stellen Sie sicher, dass Geräte in Microsoft Purview integriert sind. | Wenn Geräte noch nicht in Defender für Endpunkt integriert sind, gibt es mehrere Methoden, um sie zu integrieren. Hier erfahren Sie, wie Sie Windows-Geräte in Microsoft 365 integrieren. |
| Verstehen der Voraussetzungen und Funktionsweise von DSPM für KI | Überlegungen zur Bereitstellung von Microsoft Purview Data Security Posture Management für KI |
| Beginnen Sie mit der Verwendung von DSPM für KI | Verwenden der Datensicherheitsstatusverwaltung für KI |
| Überprüfen unterstützter KI-Websites | Unterstützte KI-Websites von Microsoft Purview für Datenschutz und Compliance-Schutz |
Schritt 3– Entdecken, Sanktionieren und Blockieren von KI-Apps mit Microsoft Defender für Cloud-Apps
Microsoft Defender für Cloud Apps hilft Sicherheitsteams, SaaS GenAI-Apps und -Nutzung zu entdecken.
Der App-Katalog von Defender for Cloud Apps enthält eine generative KI-Kategorie für LLM-Apps (Large Language Model), z. B. Microsoft Bing Chat, Google Bard, ChatGPT und mehr. Defender für Cloud-Apps hat dem Katalog mehr als tausend generative KI-bezogene Apps hinzugefügt und bietet Einblicke in die Verwendung von generativen KI-Apps in Ihrer Organisation und hilft Ihnen bei der sicheren Verwaltung.
Mit Defender for Cloud Apps können Sie:
- Filtern nach generativen KI-Apps
- Entdecken Sie die KI-Apps, die in Ihrer Organisation verwendet werden
- Anzeigen vorkonfigurierter Risikobewertungen für jede App, einschließlich mehr als 90 Risikofaktoren für Sicherheit und Einhaltung gesetzlicher Vorschriften
- Sanktionierung oder Aufhebung der Sanktion (Blockieren) der Verwendung bestimmter Apps
- Erstellen Sie Richtlinien, die KI-Apps weiterhin basierend auf von Ihnen festgelegten Kriterien ermitteln, einschließlich Risikobewertung, Anzahl der Benutzer pro Tag und anderen. Für Apps, die diese Kriterien erfüllen, können Sie die Sanktionierung sogar automatisch aufheben.
Verwenden Sie die folgenden Ressourcen für die nächsten Schritte.
| Aufgabe | Empfohlene Ressourcen |
|---|---|
| Pilotierung und Bereitstellung von Defender für Cloud-Apps | Wie kann ich Microsoft Defender für Cloud-Apps pilotieren und bereitstellen? |
| Schauen Sie sich dieses Video-Lernprogramm an | Ermitteln, welche generativen KI-Apps in Ihrer Umgebung mit Defender für Cloud-Apps verwendet werden |
| Anzeigen von ermittelten Apps | Anzeigen ermittelter Apps mit dem Cloud Discovery-Dashboard |
| Suchen Ihrer Cloud-App und Berechnen der Risikobewertung | Cloud-App-Katalog und Risikobewertungen – Microsoft Defender für Cloud-Apps |
| Steuern von ermittelten Apps | Verwalten entdeckter Apps – Microsoft Defender für Cloud-Apps |
Schritt 4: Entdecken Sie bereitgestellte KI-Workloads in Ihrer Umgebung, und erhalten Sie Sicherheitseinblicke mit Microsoft Defender für Cloud
Der Plan Defender Cloud Security Posture Management (CSPM) in Microsoft Defender für Cloud bietet KI-Sicherheitsstatusverwaltungsfunktionen, beginnend mit der Ermittlung von KI-Apps, die in Ihren Umgebungen integriert sind:
- Entdecken von generativen KI-Stücklisten (AI Bill of Materials, AI BOM), die Anwendungskomponenten, Daten und KI-Artefakte von Code bis Cloud umfassen.
- Stärkung der Sicherheitsstrategie von generativen KI-Anwendungen durch integrierte Empfehlungen sowie das Erkunden und Beheben von Sicherheitsrisiken.
- Verwenden der Angriffspfadanalyse, um Risiken zu identifizieren und zu beheben.
Verwenden Sie den CloudSicherheits-Explorer, um generative KI-Workloads und -Modelle zu identifizieren, die in Ihrer Umgebung ausgeführt werden. Cloud Security Explorer enthält vorkonfigurierte Abfragen:
- Verwendete KI-Workloads und -Modelle
- Generative KI-Repositorys mit anfälligem Code, die Azure OpenAI bereitstellen
- Container, die Container-Images mit bekannten Schwachstellen in der generativen KI ausführen.
Sie können auch Eigene Abfragen konfigurieren.
Verwenden Sie die folgenden Ressourcen für die nächsten Schritte.
| Aufgabe | Empfohlene Ressourcen |
|---|---|
| Weitere Informationen zur KI-Sicherheitsstatusverwaltung | Verwaltung der KI-Sicherheitslage mit Defender für Cloud |
| Entdecken Sie KI-Workloads | Genutzte KI-Workloads und -Modelle |
| Untersuchung von Risiken für generative KI-Artefakte vor der Bereitstellung | Risiken vor der Bereitstellung von generativen KI-Artefakten |
Nächster Schritt zum Sichern von KI
Nachdem Sie die KI-Nutzung in Ihrer Organisation entdeckt haben, besteht der nächste Schritt darin, Schutzmaßnahmen anzuwenden:
- Schützen vertraulicher Daten, die mit KI-Apps verwendet werden
- Implementieren des Bedrohungsschutzes speziell für die KI-Verwendung
Lesen Sie den nächsten Artikel in dieser Reihe: Wie kann ich meine Organisation schützen, während ich KI-Apps verwende?




