Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Wenn Sie Microsoft 365 Copilot mit Agents erweitern, können Abfragen basierend auf Ihren Eingabeaufforderungen, Dem Konversationsverlauf und Microsoft 365-Daten für den Agent freigegeben werden, um eine Antwort zu generieren oder einen Befehl auszuführen. Wenn Sie Microsoft 365 Copilot mit Microsoft 365 Copilot-Connectors erweitern, werden Ihre externen Daten in Microsoft Graph erfasst und verbleiben in Ihrem Mandanten. In diesem Artikel werden Überlegungen zum Datenschutz und zur Sicherheit bei der Entwicklung verschiedener Copilot-Erweiterbarkeitslösungen beschrieben, sowohl intern als auch als kommerzieller Entwickler.
Agents und Aktionen
Agents in Microsoft 365 Copilot unterliegen individuell ihren Nutzungsbedingungen und Datenschutzrichtlinien. Als Entwickler von Agents und Aktionen (API-Plug-Ins) sind Sie dafür verantwortlich, die Daten Ihrer Kunden innerhalb der Grenzen Ihres Diensts zu schützen und Informationen zu Ihren Richtlinien in Bezug auf die persönlichen Daten der Benutzer bereitzustellen. Administratoren und Benutzer können dann Ihre Datenschutzrichtlinien und Nutzungsbedingungen im App Store anzeigen, bevor Sie Ihren Agent hinzufügen oder verwenden.
Wenn Sie Ihre Geschäftsworkflows als Agents für Copilot integrieren, bleiben Ihre externen Daten in Ihrer App. es wird nicht in Microsoft Graph übertragen und nicht zum Trainieren von Microsoft 365 Copilot LLMs verwendet. Copilot generiert jedoch eine Suchabfrage, die im Namen des Benutzers an Ihren Agent gesendet wird, basierend auf dessen Eingabeaufforderung und dem Konversationsverlauf mit Copilot und den Daten, auf die der Benutzer in Microsoft 365 Zugriff hat. Weitere Informationen finden Sie unter Gespeicherte Daten zu Benutzerinteraktionen mit Microsoft 365 Copilot in der Microsoft 365 Copilot-Administratordokumentation.
Sicherstellen einer sicheren Implementierung deklarativer Agents in Microsoft 365
Microsoft 365-Kunden und -Partner können deklarative Agenten erstellen, die Microsoft 365 Copilot mit benutzerdefinierten Anweisungen, Grundlagenwissen und Aktionen erweitern, die über REST-API-Beschreibungen aufgerufen werden, die vom deklarativen Agenten konfiguriert wurden. Zur Laufzeit begründet Microsoft 365 Copilot eine Kombination aus der Eingabeaufforderung des Benutzers, benutzerdefinierten Anweisungen, die Teil des deklarativen Agents sind, und daten, die von benutzerdefinierten Aktionen bereitgestellt werden. All diese Daten können das Verhalten des Systems beeinflussen, und eine solche Verarbeitung birgt Sicherheitsrisiken. Insbesondere wenn eine benutzerdefinierte Aktion Daten aus nicht vertrauenswürdigen Quellen (z. B. E-Mails oder Supporttickets) bereitstellen kann, kann ein Angreifer möglicherweise eine Nachrichtennutzlast erstellen, die dazu führt, dass sich Ihr Agent so verhält, dass der Angreifer steuert, z. B. falsche Antworten auf Fragen oder sogar das Aufrufen benutzerdefinierter Aktionen. Microsoft ergreift viele Maßnahmen, um solche Angriffe zu verhindern. Darüber hinaus sollten Organisationen nur deklarative Agents aktivieren, die vertrauenswürdige Wissensquellen verwenden und über benutzerdefinierte Aktionen eine Verbindung mit vertrauenswürdigen REST-APIs herstellen. Wenn die Verwendung nicht vertrauenswürdiger Datenquellen erforderlich ist, entwerfen Sie den deklarativen Agent unter Berücksichtigung der Möglichkeit einer Verletzung, und geben Sie ihm nicht die Möglichkeit, vertrauliche Vorgänge ohne sorgfältiges menschliches Eingreifen durchzuführen.
Microsoft 365 bietet Organisationen umfassende Kontrollen, die steuern, wer integrierte Apps erwerben und verwenden kann und welche Apps für Gruppen oder Einzelpersonen innerhalb eines Microsoft 365-Mandanten aktiviert sind, einschließlich Apps, die deklarative Agents verwenden. Tools wie Copilot Studio, mit denen Benutzer ihre eigenen deklarativen Agenten erstellen können, enthalten auch umfangreiche Steuerelemente, mit denen Administratoren die Konnektoren steuern können, die sowohl für Wissen als auch für benutzerdefinierte Aktionen verwendet werden.
Microsoft 365 Copilot-Connectors
Microsoft 365 Copilot zeigt nur Daten an, auf die jeder Einzelne zugreifen kann, wobei die gleichen zugrunde liegenden Steuerelemente für den Datenzugriff verwendet werden, die auch in anderen Microsoft 365-Diensten verwendet werden. Microsoft Graph berücksichtigt die benutzeridentitätsbasierte Zugriffsgrenze, sodass der Microsoft 365 Copilot-Groundingprozess nur auf Inhalte zugreift, für die der aktuelle Benutzer berechtigt ist. Dies gilt auch für externe Daten in Microsoft Graph, die von einem Microsoft 365 Copilot-Connector erfasst werden.
Wenn Sie Ihre externen Daten mit Microsoft 365 Copilot über einen Microsoft 365 Copilot-Connector verbinden, fließen Ihre Daten in Microsoft Graph. Sie können Berechtigungen zum Anzeigen externer Elemente verwalten, indem Sie eine Zugriffssteuerungsliste (Access Control List, ACL) einer Microsoft Entra Benutzer- und Gruppen-ID oder einer externen Gruppe zuordnen.
Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht für das Training von Foundation LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.
Überlegungen für Branchenentwickler
Microsoft 365 Copilot gibt Daten nur für Agents oder Connectors frei und sucht in Agents oder Connectors, die von einem Microsoft 365-Administrator für Copilot aktiviert sind. Stellen Sie als branchenspezifischer Entwickler von Copilot-Erweiterbarkeitslösungen sicher, dass Sie und Ihr Administrator mit Folgendem vertraut sind:
- Microsoft 365 Copilot-Anforderungen
- Dokumentation zu Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot-Administratoren
- Zero Trust Prinzipien für den Microsoft 365 Copilot-Bereitstellungsplan zur Anwendung Zero Trust Prinzipien auf Microsoft 365 Copilot
- Microsoft 365 Admin Center Verfahren:
Überlegungen zu unabhängigen Softwareanbietern
Die Übermittlung Ihres App-Pakets an das Microsoft Partner Center-Programm Microsoft 365 und Copilot erfordert die Erfüllung von Zertifizierungsrichtlinien für die Annahme in Microsoft 365 In-Product Stores. Microsoft-Zertifizierungsrichtlinien und -Richtlinien zu Datenschutz, Sicherheit und verantwortungsvoller KI umfassen:
- Zertifizierungsrichtlinien für den kommerziellen Microsoft Marketplace
- Speichern von Validierungsrichtlinien für die Copilot-Erweiterbarkeit
- Überprüfungen der verantwortungsvollen KI
- (Optional) Zertifizierung des Microsoft 365 App Compliance Program