Freigeben über


Microsoft Security Copilot Häufig gestellte Fragen

Allgemeine Informationen

Was ist Microsoft Security Copilot?

Microsoft Security Copilot ist eine generative KI-gestützte Assistent für Sicherheit und IT. Sie bietet maßgeschneiderte Erkenntnisse und Empfehlungen unter Verwendung globaler Threat Intelligence, bewährter Branchenmethoden und Unternehmensdaten von Microsoft und Partnertools. Teams können auch Workflows mit autonomen Security Copilot Agents automatisieren, Reaktionen beschleunigen, Risiken priorisieren und manuelle Workloads reduzieren – und gleichzeitig die Kontrolle behalten.

Welche Anwendungsfälle und Funktionen Security Copilot für Kunden freigeschaltet?

Security Copilot konzentriert sich darauf, die folgenden Anwendungsfälle einfach zu machen.

  • Untersuchen und Beheben von Sicherheitsbedrohungen
  • Erstellen von KQL-Abfragen und Analysieren verdächtiger Skripts
  • Verstehen von Risiken und Verwalten des Sicherheitsstatus von organization
  • Schnellere Behandlung von IT-Problemen
  • Definieren und Verwalten von Sicherheitsrichtlinien
  • Konfigurieren von Workflows für den sicheren Lebenszyklus
  • Entwickeln von Berichten für Beteiligte
  • Automatisieren von Aufgaben mit autonomen Agents

Besuchen Sie den Security Copilot-Einführungshub, um mehr darüber zu erfahren, wie Security Copilot Rollen wie CISOs, Threat Intelligence-Analysten, IT-Administratoren, Datensicherheitsadministratoren und vieles mehr nutzen.

Funktioniert Microsoft Security Copilot mit anderen Microsoft-Produkten?

Ja. Security Copilot ist in andere Microsoft-Sicherheitsprodukte integriert und darin eingebettet. Diese Produkte umfassen, sind aber nicht beschränkt auf:

  • Azure Firewall
  • Microsoft Defender Verwaltung der Angriffsfläche
  • Microsoft Defender für Cloud
  • Microsoft Defender Threat Intelligence
  • Microsoft Defender XDR
  • Microsoft Intune
  • Microsoft Purview,
  • Microsoft Sentinel

Security Copilot können auf Daten aus diesen Produkten zugreifen und genAI-Unterstützung und agentische Automatisierung bereitstellen, um die Effektivität und Effizienz von Sicherheitsexperten zu erhöhen, die diese Lösungen verwenden.

Umfasst Security Copilot zugriff auf Microsoft Defender Threat Intelligence (Defender TI)?

Ja*. Wenn Sie dazu aufgefordert werden, Security Copilot Gründe für alle Inhalte und Daten in Microsoft Defender Threat Intelligence (Defender TI) aus, um einen wichtigen Kontext zu Aktivitätsgruppen, Tools und Sicherheitsrisiken zurückzugeben. Kunden haben auch Zugriff auf Defender TI Premium Workbench auf Mandantenebene, sodass sie auf die gesamte Bandbreite an Informationen von Defender TI zugreifen können – Intel-Profile, Bedrohungsanalyse, Internetdatensätze und mehr –, um einen tieferen Einblick in die Inhalte zu erhalten, die in Security Copilot angezeigt werden.

*Dieser Zugriff umfasst nicht die Defender TI-API, die separat lizenziert bleibt.

Wer sind die vorgesehenen Benutzer von Security Copilot?

SOC-Analysten, Complianceanalysten, IT-Administratoren, Datensicherheitsadministratoren, Identitätsadministratoren und CISOs sind einige der beabsichtigten Benutzer von Security Copilot. Besuchen Sie den Security Copilot Einführungshub, um mehr über die wichtigsten Szenarien zu erfahren.

Welche Sprachen werden unterstützt?

Security Copilot unterstützt mehrere Sprachen. Das Modell ist in acht Sprachen* verfügbar, und die Benutzeroberfläche ist in 25 Sprachen verfügbar.**

*Modell: Englisch, Deutsch, Japanisch, Spanisch, Französisch, Italienisch, Portugiesisch und Chinesisch

**UX: Oben sprachen plus Koreanisch, Niederländisch, Schwedisch, Polnisch, Norwegisch, Türkisch, Dänisch, Finnisch und mehr in der Benutzeroberfläche.

Weitere Informationen finden Sie unter Unterstützte Sprachen.

Was ist der Unterschied zwischen Security Copilot und generischer LLM?

Einem generischen LLM fehlen wichtige Vorteile, z. B.:

  • Echtzeitsignalverarbeitung mit strukturierten Protokolldaten, um Bedrohungen zu erkennen und zu analysieren, während sie auftreten, anstatt nach der Tatsache.
  • Ermittlungsargumente, um die Quelle und Auswirkungen von Vorfällen nachzuverfolgen. KI muss über viele Datenpunkte hinweg pivotieren, genau wie menschliche Analysten, und Schlussfolgerungen anpassen, wenn neue Informationen entstehen.
  • Genauigkeit mit Beweisen, um sicherzustellen, dass die KI genau ist und durch zuverlässige Daten gestützt wird.
  • Persistente Datensammlung zur Aufrechterhaltung einer kontinuierlichen, umfassenden Ansicht.

Ohne diese Funktionen und ein tiefes Verständnis Ihrer spezifischen Sicherheitsumgebung kann ein generisches Modell einfach nicht die erforderliche Analysetiefe bereitstellen.

Microsoft ist einzigartig positioniert, um die Herausforderungen der Verwendung von KI in der Sicherheit zu bewältigen. Unsere Lösung basiert auf den fortschrittlichsten verfügbaren Modellen und baut auf:

  • Eine Hyperskalierungsinfrastruktur, die die Skalierbarkeit und Infrastruktur bereitstellt, die für die Verarbeitung großer Datenmengen in Echtzeit erforderlich ist.
  • Ein sicherheitsspezifischer Orchestrator, der Antworten tools- und teamübergreifend optimiert, kontextualisiert und koordiniert.
  • Nahtlose Integration durch Plug-Ins, Verbinden Ihrer bestehenden Systeme und Erweiterung der Möglichkeiten unserer Lösung.
  • Evergreen Threat Intelligence, die von 84 Billionen täglichen Signalen informiert wird, für unübertroffene Sichtbarkeit in Ihrer gesamten Bedrohungslandschaft.
  • Integrierte Cyber-Skills-Schulungen und Promptbooks, um Teams mit dem Wissen und den Ressourcen zu unterstützen, die sie benötigen.

Indem wir auf all diesen Komponenten aufbauen, stellen wir eine KI-Sicherheitslösung bereit, die Ihre Sicherheitsumgebung versteht, Einblicke in natürliche Sprache liefert und vertrauliche Daten sicher verarbeitet.

Kauf- und Abrechnungsinformationen

Gibt es Voraussetzungen für den Kauf?

Ein Azure-Abonnement und Microsoft Entra ID (früher als Azure Active Directory bezeichnet) sind Voraussetzungen für die Verwendung von Security Copilot. Es gibt keine weiteren Produktvoraussetzungen. Weitere Informationen finden Sie unter Erste Schritte mit Security Copilot.

Ist die Bereitstellung Microsoft Entra ID (früher als Azure Active Directory bezeichnet) eine Voraussetzung für Security Copilot?

Ja. Security Copilot ist eine SaaS-Anwendung und erfordert Microsoft Entra ID, um die Benutzer zu authentifizieren, die Zugriff haben.

Wie wird Security Copilot berechnet?

Security Copilot wird basierend auf Security Compute Units (SCUs) berechnet.

  • Bereitgestellte SCUs unterstützen reguläre Workloads und werden monatlich abgerechnet.
  • Überschreitungs-SCUs bieten flexible bedarfsgesteuerte Kapazität und werden nur bei Verwendung abgerechnet.

Verwenden Sie die produktinterne Dashboard, um die SCU-Nutzung zu überwachen und die Kapazität nach Bedarf anzupassen.

Weitere Informationen finden Sie unter Microsoft Security Copilot – Preise.

Unterstützt Security Copilot Mandanten- oder Abonnementübertragungen?

Nein, derzeit unterstützt Security Copilot das Verschieben Security Copilot Ressourcen über Microsoft Entra Mandanten oder Abonnementübertragungen nicht.

Können SCUs von den Security Copilot Arbeitsbereichen eines Mandanten gemeinsam genutzt werden?

SCUs, unabhängig davon, ob bereitgestellt oder Überschreitungen, können nicht von Arbeitsbereichen gemeinsam genutzt werden. Wenn beispielsweise ein organization Arbeitsbereich A (1 bereitgestellt, drei Überschreitungen) und Arbeitsbereich B (2 bereitgestellt, fünf Überschreitungen) aufweist, kann Arbeitsbereich A die SCUs von Arbeitsbereich B nicht verwenden, um eine Drosselung zu verhindern, wenn die eigenen insgesamt vier SCUs ausgeschöpft werden. Ebenso kann Arbeitsbereich B die SCU-Kapazität von Arbeitsbereich A nicht verwenden, wenn seine eigenen SCUs erschöpft sind.

Wie kann ich die SCU-Bereitstellung und das Budget für Security Copilot schätzen?

Die Schätzung der SCU-Anforderungen und der Budgetierung hängt davon ab, wie Ihr organization generative KI in Microsoft-Sicherheitsprodukten verwendet. Verwenden Sie den SCU-Kapazitätsrechner, um einen Ausgangspunkt zu erhalten, der auf der Anzahl der Benutzer und Workloads in Microsoft Defender, Microsoft Intune, Microsoft Purview, Microsoft Entra und der Security Copilot eigenständigen Umgebung basiert. Da jede Eingabeaufforderung und jeder Workflow in der Komplexität variiert, ist der SCU-Verbrauch nicht festgelegt. Beginnen Sie klein, experimentieren Sie, und verfeinern Sie basierend auf Ihrer tatsächlichen Nutzung. Verfolgen Sie die Nutzung in Echtzeit mit dem produktinternen Dashboard, mit dem Sie den SCU-Verbrauch überwachen und die Kapazität nach Bedarf anpassen können.

Gewusst wie die Ergebnisse im SCU-Kapazitätsrechner interpretieren?

Die Ergebnisse zeigen die maximale erwartete Anzahl von SCUs pro Stunde, basierend auf der Anzahl der monatlichen Benutzer pro Erfahrung und der Einbeziehung der Automatisierung über Logic Apps und Promptbooks. Zusätzlich zu den maximalen SCUs pro Stunde zeigt der Rechner auch alle möglichen Kombinationen von bereitgestellten und Überschreitungs-SCUs sowie den entsprechenden monatlichen Kostenbereich an. Die höchsten monatlichen Kosten werden basierend auf der kontinuierlichen 24/7-Kapazitätsauslastung berechnet.

Was ist, wenn meine Anforderungen nicht vom SCU-Kapazitätsrechner abgedeckt werden (z. B. habe ich mehr als 50 Intune Benutzer).

Wenden Sie sich an uns , oder wenden Sie sich an Ihren Microsoft-Konto-Manager, um weitere Informationen zu erhalten.

Was sind die Mindestbereitstellungsanforderungen für SCUs in Arbeitsbereichen?

Um Microsoft Security Copilot verwenden zu können, muss jeder Mandant mindestens eine SCU bereitstellen. Die bereitgestellte SCU ermöglicht den Zugriff auf mindestens einen Arbeitsbereich.

  • Bereitgestellte SCUs sind zum Aktivieren der Kapazität erforderlich und werden stündlich abgerechnet.
  • Überschreitungs-SCUs können von 0 auf 999 festgelegt werden und werden nur bei Verwendung abgerechnet.

Technische und Produktinformationen

Welche Partnertools sind in Security Copilot integriert?

Microsoft Security Copilot unterstützt viele Plug-Ins, einschließlich Microsoft- und Nicht-Microsoft-Plug-Ins. Weitere Informationen finden Sie unter Plug-Ins.

Hinweis

Produkte, die in Security Copilot integriert sind, müssen separat erworben werden.

Gibt Security Copilot Empfehlungen für IoT/OT-Szenarien?

Nein, Security Copilot unterstützt ioT/OT derzeit nicht.

Bietet Security Copilot Dashboarding?

Security Copilot bietet eine produktinterne nutzungsbasierte Dashboard bei der Kunden tief in ihren SCU-Verbrauch eintauchen können.

Kann Security Copilot Workflows ausführen – von der Selektierung über die Verwendung angehefteter Nachrichten bis hin zur Festlegung, wie der Kunde den Incident bezeichnen und ob ein Incident geschlossen werden soll?

Security Copilot stellt Promptbooks bereit, die sofort einsatzbereite Workflows sind, die als Vorlagen dienen können, um sich wiederholende Schritte zu automatisieren – für instance, bezüglich Reaktion auf Vorfälle oder Untersuchungen. Darüber hinaus gibt es Connectors in Security Copilot, die ein Wrapper um die API sind, mit dem Entwickler und Benutzer die Microsoft Security Copilot Plattform aufrufen können, um spezielle Aufgaben auszuführen. Mit dem Logic Apps-Connector können Sie beispielsweise Copilot aus einem Azure Logic Apps-Workflow aufrufen. Auf ähnliche Weise können Sie mit dem Copilot Studio Connector auf Security Copilot zugreifen, um Aktionen wie "Security Copilot Eingabeaufforderung übermitteln" oder "Security Copilot Eingabeaufforderung status abrufen" auszuführen.

Welche rollenbasierten Zugriffssteuerungs- oder Delegierungsfeatures bieten Security Copilot? Wie werden Benutzerberechtigungen in Security Copilot an Benutzerberechtigungskonfigurationen in anderen Lösungen ausgerichtet?

Copilot verwendet die Im-Auftrag-of-Authentifizierung, um über aktive Microsoft-Plug-Ins auf sicherheitsrelevante Daten zuzugreifen. Bestimmte Security Copilot Rollen müssen zugewiesen werden, damit eine Gruppe oder Person auf die Security Copilot Plattform zugreifen kann. Weitere Informationen finden Sie unter Grundlegendes zur Authentifizierung.

Wie geht Security Copilot mit einem "Tokenlimit" um?

Große Sprachmodelle (LLMs), einschließlich GPT, haben Beschränkungen hinsichtlich der Menge an Informationen, die sie gleichzeitig verarbeiten können. Dieser Grenzwert wird als "Tokenlimit" bezeichnet und entspricht ungefähr 1,2 Wörtern pro Token. Security Copilot verwendet die neuesten GPT-Modelle von Azure OpenAI, um sicherzustellen, dass wir so viele Informationen wie möglich in einer einzigen Sitzung verarbeiten können. In einigen Fällen können große Eingabeaufforderungen, lange Sitzungen oder ausführliche Plug-In-Ausgaben den Tokenspeicherplatz überlaufen. Wenn dieses Szenario eintritt, versucht Security Copilot, Abhilfemaßnahmen anzuwenden, um sicherzustellen, dass eine Ausgabe immer verfügbar ist, auch wenn der Inhalt in dieser Ausgabe nicht optimal ist. Diese Entschärfungen sind nicht immer wirksam, und es kann erforderlich sein, die Verarbeitung der Anforderung zu beenden und den Benutzer anzuweisen, eine andere Eingabeaufforderung oder ein anderes Plug-In zu versuchen.

Was sind Security Copilot Agents?

Microsoft Security Copilot Agents verbessern die Sicherheit und den IT-Betrieb mit autonomer und adaptiver Automatisierung. Agents lassen sich nahtlos in Microsoft-Sicherheitslösungen und das Partnerökosystem von Drittanbietern integrieren, um sicherheitsintensive Aufgaben zu bewältigen. Speziell für die Sicherheit entwickelt, lernen diese Agents aus Feedback, passen sich an Organisationsworkflows an, wobei Ihr Team die vollständige Kontrolle hat, und arbeiten sicher innerhalb des Zero Trust Frameworks von Microsoft – beschleunigen Reaktionen, priorisieren Risiken und steigern die Effizienz. Durch die Reduzierung manueller Workloads erhöhen sie die betriebliche Effektivität und stärken den gesamtsicherheitsstatus Ihrer organization.

Besuchen Sie den Einführungshub, um mehr über Security Copilot Agents zu erfahren.

Welche Computeressourcen verwenden Security Copilot Agents?

Agents verwenden SCUs, um genau wie andere Features in Security Copilot zu arbeiten. Sie lassen sich nahtlos in Microsoft-Sicherheitslösungen und das breiter unterstützte Partnerökosystem integrieren.

Wo finde ich Security Copilot Agents?

Sie können Microsoft Security Copilot Agents sowohl in der eigenständigen als auch in der eingebetteten Umgebung problemlos ermitteln.

Für die eigenständige Benutzeroberfläche können Sie im Banner Zu Agents wechseln auswählen. Sie können auch über das Startmenü zur Agent-Bibliothek navigieren. In den eingebetteten Umgebungen sehen Sie Agents im Portal und erkunden deren Funktionen.

Besuchen Sie den Einführungshub , um mehr zu erfahren.

Was sind Connectors in Security Copilot?

Die Connectors in Security Copilot sind ein Wrapper um die API, mit dem Entwickler und Benutzer die Microsoft Security Copilot Plattform aufrufen können, um spezielle Aufgaben auszuführen. Derzeit werden Logic Apps- und Copilot Studio-Connectors unterstützt. Weitere Informationen finden Sie unter Connectors.

Wie funktioniert der Copilot Studio Connector?

mit Copilot Studio Connector können Sie beim Erstellen von Automatisierungsworkflows auf Security Copilot zugreifen. Mit dem Security Copilot-Connector haben Sie folgende Möglichkeiten:

  • Security Copilot Eingabeaufforderung übermitteln: Übermitteln Sie eine Eingabeaufforderung in natürlicher Sprache, um eine neue Security Copilot Untersuchung zu erstellen. Nach Abschluss des Vorgangs wird das Auswertungsergebnis an Ihren Workflow zurückgegeben.
  • Abrufen einer Security Copilot Eingabeaufforderung status: Übermitteln Sie eine Eingabeaufforderung in natürlicher Sprache, um den status einer Security Copilot Auswertung zu pullen. Nach Abschluss des Vorgangs wird das Auswertungsergebnis an Ihren Workflow zurückgegeben.

Wie funktioniert der Logic Apps-Connector?

Mit dem Microsoft Security Copilot Logic Apps-Connector können Sie Copilot aus einem Azure Logic Apps-Workflow aufrufen. Der Connector macht zwei Connectoraktionen verfügbar:

  • Security Copilot Eingabeaufforderung übermitteln: Übermitteln Sie eine Eingabeaufforderung in natürlicher Sprache, um eine neue Security Copilot Untersuchung zu erstellen. Nach Abschluss des Vorgangs wird das Auswertungsergebnis an Ihren Workflow zurückgegeben.
  • Übermitteln eines Security Copilot Promptbooks: Rufen Sie bei einem Promptbook eine neue Security Copilot promptbook-Auswertung auf, und geben Sie die Ausgabe an Ihren Azure Logic Apps-Workflow zurück.

Was ist ein Security Copilot Arbeitsbereich?

Im Kontext von Security Copilot unterstützen Arbeitsbereiche Teams dabei, Ressourcen zu verwalten, Workflows zu optimieren und die Einhaltung von Organisationsrichtlinien aufrechtzuerhalten. Sie können es auch für die spezifischen Anforderungen von Teams und Gruppen konfigurieren, z. B. das Festlegen des Zugriffs, das Zuweisen von Kapazität, das Konfigurieren bestimmter Plug-Ins, das Bereitstellen von Agents und das Hinzufügen von Promptbooks, um die Erfahrung basierend auf den individuellen Anforderungen jedes Teams oder jeder Gruppe anzupassen.

Arbeitsbereiche bieten eine flexible Möglichkeit zum Segmentieren von Umgebungen, sodass der Zugriff und die Kapazität einfacher an den Anforderungen der Organisation, rechtlichen Strukturen oder Complianceanforderungen ausgerichtet werden können. Weitere Informationen finden Sie unter Übersicht über Arbeitsbereiche.

Informationen zu Datenschutz und Privatsphäre

Werden Kundendaten zum Trainieren von Azure OpenAI Service-Basismodellen verwendet?

Nein, Kundendaten werden nicht zum Trainieren von Azure OpenAI Service-Basismodellen verwendet, und diese Verpflichtung ist in unseren Produktbedingungen dokumentiert. Weitere Informationen zur Datenfreigabe im Kontext von Security Copilot finden Sie unter Datenschutz und Datensicherheit.

Was ist der DSGVO-Leitfaden für EU-Märkte?

Microsoft hält alle Gesetze und Vorschriften ein, die für die Bereitstellung von Produkten und Diensten gelten, einschließlich des Benachrichtigungsrechts für Sicherheitsverletzungen und der Datenschutzanforderungen (wie im Microsoft DPA definiert). Microsoft ist jedoch nicht für die Einhaltung von Gesetzen oder Vorschriften verantwortlich, die für Kunden oder die Branche des Kunden gelten und die nicht allgemein für It-Dienstanbieter gelten. Microsoft bestimmt nicht, ob die Daten des Kunden Informationen enthalten, die bestimmten Gesetzen oder Vorschriften unterliegen. Weitere Informationen finden Sie unter Microsoft Products and Services Data Protection Addendum (DPA).

Sind GCC-Kunden (US Government Cloud) berechtigt?

Derzeit ist Security Copilot nicht für die Verwendung durch Kunden konzipiert, die Clouds der US-Regierung verwenden, einschließlich, aber nicht beschränkt auf GCC, GCC High, DoD und Microsoft Azure Government. Weitere Informationen finden Sie unter Mit Ihrem Microsoft-Vertreter.

Sind Gesundheitskunden in den USA und Kanada berechtigt?

HLS-Kunden in den USA und Kanada sind berechtigt, Security Copilot zu erwerben. Microsoft Security Copilot ist jetzt aufgeführt und wird durch die Geschäftspartnervereinbarung ("BAA") abgedeckt, die für Gesundheitsdienstleister wichtig ist, die den Bestimmungen gemäß HIPAA unterliegen. Weitere Informationen zu Complianceangeboten, die derzeit für Microsoft Security Copilot behandelt werden, finden Sie im Service Trust Portal.

Gewusst wie Daten aus Security Copilot exportieren oder löschen?

Sie müssen sich an den Support wenden. Weitere Informationen finden Sie unter Kontaktieren des Supports.

Wo finde ich weitere Informationen zu Datenschutz und Datenschutz?

Weitere Informationen finden Sie im Microsoft Trust Center.

Der Verhaltenskodex des Azure OpenAI-Diensts enthält "Anforderungen an die verantwortungsvolle KI-Entschärfung". Wie gelten diese Anforderungen für Security Copilot Kunden?

Diese Anforderungen gelten nicht für Security Copilot Kunden, da Security Copilot diese Risikominderungen implementiert.

Warum überträgt Microsoft Copilot Daten an einen Microsoft-Mandanten?

Microsoft Copilot ist ein SaaS-Angebot (Software-as-a-Service), das im Azure-Produktionsmandanten ausgeführt wird. Benutzer geben Eingabeaufforderungen ein, und Security Copilot antworten basierend auf den Erkenntnissen aus anderen Produkten wie Microsoft Defender XDR, Microsoft Sentinel und Microsoft Intune. Security Copilot speichert frühere Eingabeaufforderungen und Antworten für einen Benutzer. Der Benutzer kann die Produktumgebung verwenden, um auf Eingabeaufforderungen und Antworten zuzugreifen. Daten von einem Kunden werden logisch von den Daten anderer Kunden isoliert. Diese Daten verlassen den Azure-Produktionsmandanten nicht und werden gespeichert, bis Kunden sie löschen oder aus dem Produkt offboarden möchten.

Wie werden die übertragenen Daten während der Übertragung und im Ruhezustand gesichert?

Die Daten werden sowohl während der Übertragung als auch im Ruhezustand verschlüsselt, wie im Nachtrag zum Datenschutz von Microsoft-Produkten und -Diensten beschrieben.

Wie sind die übertragenen Daten vor unbefugtem Zugriff geschützt, und welche Tests wurden für dieses Szenario durchgeführt?

Standardmäßig haben keine menschlichen Benutzer Zugriff auf die Datenbank, und der Netzwerkzugriff ist auf das private Netzwerk beschränkt, in dem die Microsoft Copilot Anwendung bereitgestellt wird. Wenn ein Mensch Zugriff benötigt, um auf einen Vorfall zu reagieren, benötigt der Bereitschaftsdienst einen erhöhten Zugriff und Netzwerkzugriff, der von autorisierten Microsoft-Mitarbeitern genehmigt wird.

Neben regelmäßigen Featuretests hat Microsoft auch Penetrationstests durchgeführt. Microsoft Security Copilot erfüllt alle Datenschutz-, Sicherheits- und Complianceanforderungen von Microsoft.

Was geschieht in "Meine Sitzungen", wenn eine einzelne Sitzung gelöscht wird, mit den Sitzungsdaten?

Sitzungsdaten werden für Laufzeitzwecke (zum Betreiben des Diensts) sowie in Protokollen gespeichert. Wenn in der Laufzeitdatenbank eine Sitzung über die produktinterne Benutzeroberfläche gelöscht wird, werden alle dieser Sitzung zugeordneten Daten als gelöscht markiert, und die Gültigkeitsdauer (Time to Live, TTL) wird auf 30 Tage festgelegt. Nach Ablauf dieser Gültigkeitsdauer können Abfragen nicht mehr auf diese Daten zugreifen. Ein Hintergrundprozess löscht die Daten nach diesem Zeitpunkt physisch. Zusätzlich zur "live"-Laufzeitdatenbank gibt es regelmäßige Datenbanksicherungen. Die Sicherungen werden veraltet – diese haben kurze Aufbewahrungszeiträume (derzeit auf vier Tage festgelegt).

Protokolle, die Sitzungsdaten enthalten, sind nicht betroffen, wenn eine Sitzung über die produktinterne Benutzeroberfläche gelöscht wird. Diese Protokolle haben einen Aufbewahrungszeitraum von bis zu 90 Tagen.

Welche Produktbedingungen gelten für Security Copilot? Ist Security Copilot ein "Microsoft Generative KI-Dienst" im Sinne der Produktbedingungen von Microsoft?

Die folgenden Produktbedingungen gelten für Security Copilot Kunden:

  • Universal License Terms for Online Services terms in the Product Terms, which include the Microsoft Generative AI Services terms and the Customer Copyright Commitment.

  • Datenschutz & Sicherheitsbestimmungen in den Microsoft-Produktbedingungen, die den Datenschutz-Nachtrag enthalten.

Security Copilot ist ein generativer KI-Dienst innerhalb der Definition der Produktbedingungen. Darüber hinaus ist Security Copilot ein "abgedecktes Produkt" im Sinne der Urheberrechtsverpflichtung des Kunden. Derzeit gibt es in den Produktbedingungen keine produktspezifischen Begriffe, die nur für Security Copilot gelten.

Zusätzlich zu den Produktbedingungen regeln beispielsweise die MBSA/EA- und MCA-Vereinbarungen des Kunden die Beziehung der Parteien. Wenn ein Kunde bestimmte Fragen zu seinen Vereinbarungen mit Microsoft hat, wenden Sie sich an den CE, den Deal-Manager oder den lokalen CELA, der den Deal unterstützt.

Die Microsoft-Verpflichtung zum Urheberrecht ist eine neue Verpflichtung, die die bestehende Unterstützung von Microsoft für geistiges Eigentum auf bestimmte kommerzielle Copilot-Dienste ausweitet. Die Verpflichtung zum Urheberrecht des Kunden gilt für Security Copilot. Wenn ein Dritter einen kommerziellen Kunden wegen Urheberrechtsverletzung für die Verwendung von Copilots von Microsoft oder der von ihnen generierten Ausgabe verklagt, wird Microsoft den Kunden verteidigen und den Betrag für alle nachteiligen Urteile oder Vergleiche bezahlen, die sich aus der Klage ergeben, vorausgesetzt, dass der Kunde die in unseren Produkten integrierten Schutzmaßnahmen und Inhaltsfilter verwendet hat.

Können Security Copilot Kunden die Überwachung des Missbrauchs des Azure OpenAI-Diensts deaktivieren? Führt Security Copilot eine Inhaltsfilterung oder Missbrauchsüberwachung durch?

Die Azure OpenAI-Missbrauchsüberwachung ist derzeit dienstweit für alle Kunden deaktiviert.

Übernimmt Security Copilot einen Speicherort für die Datenverarbeitung oder die Datenresidenz?

Weitere Informationen zum Speicherort und zur Verarbeitung von Kundendaten finden Sie unter Datenschutz und Datensicherheit.

Ist Security Copilot ein Microsoft EU-Datenbegrenzungsdienst?

Zum Zeitpunkt der allgemeinen Verfügbarkeit fallen alle Microsoft-Sicherheitsdienste nicht in den Geltungsbereich der EU-Datenresidenzanforderungen, und Security Copilot werden nicht als EUDB-Dienst aufgeführt.

Wo werden EU-Kundendaten gespeichert?

Security Copilot speichert Kundendaten und personenbezogene Daten, z. B. Benutzeraufforderungen und Microsoft Entra Objekt-IDs im geografischen Standort des Mandanten. Wenn ein Kunde seinen Mandanten in der EU bereitstellt und sich nicht für die Datenfreigabe entschieden hat, werden alle Kundendaten und pseudonymisierten personenbezogenen Daten im Ruhezustand innerhalb der EU gespeichert. Die Verarbeitung von Kundendaten und Aufforderungen zu personenbezogenen Daten kann im angegebenen Sicherheits-GPU-Geo erfolgen. Weitere Informationen zur Auswahl von Sicherheits-GPU-Geografien finden Sie unter Erste Schritte mit Security Copilot. Wenn sich ein Kunde für die Datenfreigabe entschieden hat, können Aufforderungen außerhalb der EU-Datengrenze gespeichert werden. Weitere Informationen zur Datenfreigabe finden Sie unter Datenschutz und Datensicherheit.

Gelten Kundenaufforderungen (z. B. Eingabeinhalte des Kunden) als Kundendaten innerhalb der Bestimmungen der DPA und der Produktbedingungen?

Ja, Kundenaufforderungen gelten als Kundendaten. Unter den Produktbedingungen werden Kundenaufforderungen als Eingaben betrachtet. Eingaben sind definiert als "alle Kundendaten, die der Kunde zur Verwendung durch eine generative Künstliche Intelligenz-Technologie zum Generieren oder Anpassen einer Ausgabe bereitstellt, bestimmt, auswählt oder eingibt".

Gelten "Ausgabeinhalte" als Kundendaten innerhalb der Bestimmungen der DPA und der Produktbedingungen?

Ja, Ausgabeinhalte sind Kundendaten gemäß den Produktbedingungen.

Gibt es einen Transparenzhinweis oder eine Transparenzdokumentation für Security Copilot?

Ja, das Dokument zur Transparenz verantwortungsvoller KI finden Sie hier: Häufig gestellte Fragen zur verantwortungsvollen KI.

Was sind die Complianceangebote für Microsoft Security Copilot?

Microsoft Security Copilot ist bestrebt, die höchsten Standards in Bezug auf Sicherheit, Datenschutz und betriebsbezogene Exzellenz zu wahren, wie die umfangreiche Palette von Branchenzertifizierungen zeigt. Dazu gehören ISO 27001 für die Verwaltung von Informationssicherheit, ISO 27018 für den Schutz personenbezogener Daten in der Cloud, ISO 27017 für cloudspezifische Sicherheitskontrollen und ISO 27701 für die Verwaltung von Datenschutzinformationen.

Darüber hinaus verfügt Security Copilot über Zertifizierungen für ISO 20000-1 im IT Service Management, ISO 9001 im Qualitätsmanagement und ISO 22301 im Business Continuity Management. Es erfüllt auch die SOC2-Anforderungen in Bezug auf Sicherheit, Verfügbarkeit und Vertraulichkeit und unterstreicht unsere Verpflichtung zur Bereitstellung sicherer und zuverlässiger Dienste. Für Dienstleistungen im Gesundheitswesen ist Security Copilot nach dem HiTrust CSF-Framework zertifiziert, was seine Sicherheits- und Compliance-Haltung weiter verbessert und durch HIPAA Business Associate Agreements (BAA) abgedeckt ist, um die Einhaltung von Gesundheitsvorschriften und den Schutz vertraulicher Gesundheitsinformationen sicherzustellen.

Weitere Informationen zu Complianceangeboten, die derzeit für Microsoft Security Copilot abgedeckt sind, finden Sie im Service Trust Portal.

Partnerinformationen

Welche Anwendungsfälle gibt es für Partner?  

Partner können Signale bereitstellen oder ergänzende Lösungen für Security Copilot Szenarien erstellen.

Wenn ein Kunde mit einem Managed Security Service Provider (MSSP) zusammenarbeitet, kann der MSSP Security Copilot im Namen des Kunden verwenden und verwalten?

Ja, MSSPs, die SOC-Dienste für Kunden bereitstellen, können auf die Security Copilot Umgebung des Kunden zugreifen, wenn der Kunde sich für den Zugriff entscheidet. Folgende Optionen sind verfügbar:

  • Azure Lighthouse
  • B2B Collaboration/Gastkonten
  • Granular Delegated Admin Privileges (GDAP)

Derzeit gibt es kein mehrinstanzenfähiges CSP- oder Reseller-Modell für MSSPs. Jeder Kunde ist dafür verantwortlich, seine eigenen SCUs zu erwerben und seine MSSPs mit dem erforderlichen Zugriff einzurichten, wenn er innerhalb des Mandanten des Kunden darauf zugreift. Wenn delegierter Azure Lighthouse-Zugriff auf die Microsoft Sentinel Arbeitsbereiche des Kunden bereitgestellt wird, kann der Partner seine Partner-Kapazitätsplan-SCUs verwenden, um eine Eingabeaufforderung für die Microsoft Sentinel Arbeitsbereichsdaten des Kunden auszuführen.

Wenn ein MSSP über den Mandanten eines Kunden auffordert und Azure Lighthouse verwendet, verwendet der MSSP dann seine eigenen SCUs oder die SCUs des Kunden?

Mit Azure Lighthouse können Partner Security Copilot Berechtigungen für die Microsoft Sentinel Arbeitsbereiche und andere unterstützte Azure-Ressourcen des Kunden erhalten. Der verwendete Kapazitätsplan (Capacity Plan, SCUs) ist der Kapazitätsplan des Partnermandanten.

Können MSSPs eine einzelne instance Security Copilot verwenden, um mehrere Mandanten zu verwalten?

Azure Lighthouse wird für das Aufrufen Sentinel-basierten Skills vom Partnermandanten für den Microsoft Sentinel Arbeitsbereich eines einzelnen Kunden zu einem Zeitpunkt unterstützt, zu dem dem Partner über Azure Lighthouse delegierter Zugriff gewährt wurde. Der Partnermandant nutzt seine SCUs, um Security Copilot, die Microsoft Sentinel Skills für den Mandanten des Kunden aufgerufen werden, auszuführen, ohne dass der Kundenmandant für Security Copilot oder eigene SCUs bereitgestellt werden muss.

Gibt es derzeit Integrationen von Drittanbietern?

Microsoft Security Copilot unterstützt viele Plug-Ins, einschließlich Microsoft- und Nicht-Microsoft-Plug-Ins. Weitere Informationen finden Sie unter Übersicht über Nicht-Microsoft-Plug-Ins. Darüber hinaus gibt es Agents von unseren Partnern, die in Security Copilot verfügbar sind. Weitere Informationen finden Sie unter Partner-Agents.

Hinweis

Produkte, die in Security Copilot integriert sind, müssen separat erworben werden.

Gibt es einen Marketplace für die Plug-Ins oder -Dienste? 

Es gibt keinen Plug-In-Marketplace. ISVs können ihre Lösungen auf GitHub veröffentlichen. Alle Partner müssen ihre Lösungen oder verwalteten Dienste im kommerziellen Microsoft-Marketplace veröffentlichen. Weitere Informationen zur Veröffentlichung im Marketplace finden Sie unter:

Veröffentlichen der Lösung im kommerziellen Microsoft Marketplace:

MSSP-spezifisch: Muss in Microsoft AI Cloud Partner Program über eine Sicherheitsbezeichnung verfügen.

SaaS-spezifisch:

Was geschieht, wenn MSSPs keine Microsoft Defender XDR oder Microsoft Sentinel verwenden? 

Microsoft Security Copilot hat keine spezifischen Anforderungen an das Microsoft-Sicherheitsprodukt für die Bereitstellung oder Verwendung, da die Lösung auf der Aggregierung von Datenquellen sowohl von Microsoft als auch von Drittanbieterdiensten basiert. Vor diesem Grund ist es von großem Wert, Microsoft Defender XDR und Microsoft Sentinel als unterstützte Plug-Ins für die Anreicherung von Untersuchungen aktiviert zu haben. Security Copilot verwendet nur Skills und greift auf Daten von aktivierten Plug-Ins zu.

Muss eine MSSPs SOC-Lösung in Azure gehostet werden? 

Es wird empfohlen, dass die Lösung in Azure gehostet wird, aber nicht erforderlich ist. 

Gibt es eine Produktroadmap, die für Partner freigegeben werden kann? 

Dies ist derzeit nicht möglich.