Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Der Bedrohungsschutz von Microsoft Defender für Cloud für KI-Dienste ermöglicht Es Ihnen, die Handlungsfähigkeit und den Sicherheitswert der generierten KI-Warnungen zu verbessern, indem Sie sowohl Endbenutzer- als auch Anwendungskontext bereitstellen.
In den meisten Fällen werden Szenarien, in denen KI-Dienste angewendet werden, als Teil einer Anwendung erstellt, sodass die API-Aufrufe an den KI-Dienst von einer Webanwendung, einer Computeinstanz oder einem KI-Gateway stammen. Diese Architektur führt zu Komplexität, da bei der Untersuchung von KI-Anfragen der Kontext fehlt, um die Geschäftsanwendung oder den beteiligten Endbenutzer zu ermitteln.
Defender for Cloud ermöglicht zusammen mit Azure KI das Hinzufügen von Parametern zu Ihren Azure KI-API-Aufrufen, um kritische Endbenutzer- oder Anwendungskontexte an die KI-Warnungen von Defender for Cloud zu verteilen. Dies wiederum führt zu effektiverer Selektierung und damit zu besseren Ergebnissen. Wenn Sie z. B. Endbenutzer-IP oder -Identität hinzufügen, können Sie diesen Benutzer blockieren oder Vorfälle und Warnungen durch diesen Benutzer korrelieren. Beim Hinzufügen von Anwendungskontext können Sie priorisieren oder ermitteln, ob verdächtiges Verhalten als Standard für diese Anwendung in der Organisation angesehen werden könnte.
Voraussetzungen
Erfahren Sie mehr in Übersicht – KI-Bedrohungsschutz.
Aktivieren Sie den Bedrohungsschutz für KI-Dienste in einer KI-Anwendung mit dem zugrunde liegenden Azure OpenAI-Modell direkt über den Azure OpenAI-Dienst. Beachten Sie, dass dieses Feature derzeit nicht unterstützt wird, wenn Modelle angewendet werden, die über die Azure AI-Modell-Ableitungs-API verwendet werden.
Hinzufügen von Sicherheitsparametern zu Ihrem Azure OpenAI-Aufruf
Um KI-Sicherheitsbenachrichtigungen mit mehr Kontext zu erhalten, können Sie einige oder alle der folgenden UserSecurityContext-Beispielparameter zu Ihren API-Aufrufen in Azure OpenAI hinzufügen.
Alle Felder in UserSecurityContext sind optional.
Für Endbenutzerkontext wird empfohlen, mindestens die Felder EndUserId und SourceIP zu übergeben. Die Felder EndUserId und SourceIP bieten SOC-Analysten (Security Operations Center) die Möglichkeit, Sicherheitsvorfälle zu untersuchen, die sich auf KI-Ressourcen und Anwendungen mit generativer KI beziehen.
Übergeben Sie für den Anwendungskontext das applicationName Feld als einfache Zeichenfolge.
Wenn der Name eines Felds falsch geschrieben ist, führt der Azure OpenAI-API-Aufruf weiterhin zu Erfolg.
Hinweis
Die EndUserId ist die Microsoft Entra ID (vormals Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein.
UserSecurityContext-Schema
Das genaue Schema finden Sie in der Referenzdokumentation zur Rest-API in Azure OpenAI.
Das Benutzersicherheitskontextobjekt ist Teil des Anforderungstexts der Chatvervollständigungs-API.
Dieses Feature wird derzeit nicht unterstützt, wenn Modelle angewendet werden, die über die Azure AI-Modell-Ableitungs-API bereitgestellt werden.
Verfügbarkeit
| Quelle | Versionsunterstützung | Codebeispiel | Kommentare |
|---|---|---|---|
| Azure OpenAI-REST-API | Version 2025-01-01 | - | - |
| Azure .NET SDK | v2.2.0-beta.1 (2025-02-07) oder höher | GitHub-Codebeispiel | - |
| Azure Python-SDK | v1.61.1 oder höher | GitHub-Codebeispiel | Die Unterstützung wird durch Anfügen an das Objekt „extra_body“ bereitgestellt. |
| Azure JS/Node-SDK | v4.83.0 oder höher | GitHub-Codebeispiel | Die Unterstützung wird durch Anfügen an das Objekt „extra_body“ bereitgestellt. |
| Azure Go-SDK | v0.7.2 oder höher | - | - |