Delen via


Uw Microsoft Copilot Studio AI-agents beveiligen (preview)

Omdat geen code/weinig code-platforms steeds toegankelijker worden, worden organisaties geconfronteerd met nieuwe typen beveiligingsrisico's. Met deze platforms kunnen niet-technische gebruikers aangepaste agents bouwen en implementeren zonder gecentraliseerde beveiligingsbeoordeling of besturingselementen. Aanvallers kunnen proberen deze agents te manipuleren door:

  • Schadelijke prompts injecteren
  • Onbedoelde uitvoeringen van hulpprogramma's activeren
  • Gegevensbronnen gebruiken om bevoegdheden te escaleren of gegevens te exfiltreren.

Beveiligingsfuncties voor AI-agent

Microsoft Defender lost kritieke beveiligingslacunes op met uitgebreide AI-agentbeveiliging, waaronder proactieve blootstelling, opsporing van bedreigingen, realtime-beveiliging en waarschuwingen. Met AI-agentbeveiliging Microsoft Defender:

  • Detecteert al uw aangepaste AI-agents die zijn gemaakt met Microsoft Copilot Studio en integreert hun gegevens in geavanceerde opsporing voor proactieve detectie van bedreigingen. U kunt deze gegevens gebruiken om aangepaste query's te maken en mogelijke bedreigingen op te sporen. Zie Copilot Studio AI-agentinventaris (preview) voor meer informatie over het instellen en gebruiken van de AI-agentinventaris.
  • Verzamelt auditlogboeken voor uw aangepaste AI-agents die zijn gemaakt met Copilot Studio, bewaakt de agents voortdurend op verdachte activiteiten en schakelt detecties en waarschuwingen in. Als u deze bewaking wilt inschakelen, moet u het volgende doen:
  • Biedt realtime-beveiliging om verdachte of schadelijke acties te blokkeren die door uw AI-agents zijn geïnitieerd, en activeert een informatieve waarschuwing die is geïntegreerd in de XDR-omgeving voor incidenten en waarschuwingen. Zie Realtime-beveiliging inschakelen voor Microsoft Copilot Studio Agents voor meer informatie over het instellen van realtime-beveiliging.