Freigeben über


Erstellen eines starken Sicherheitsstatus für KI

Ihr KI-Sicherheitsstatus ist ein wichtiger Bestandteil Ihrer allgemeinen Sicherheitsstrategie. KI legt Priorität auf bestimmte Elemente einer Cybersicherheitsstrategie, z. B. Datenschutz. Dieser Artikel hilft Ihnen, Ihre Strategie und Prioritäten für die Sicherung von KI zu entwickeln. Nachfolgende Artikel in dieser Sammlung helfen Ihnen, die spezifischen Elemente der Cybersicherheit zu identifizieren, die priorisiert werden sollen, während Sie KI-Begleiter, Tools und neue Apps einführen.

Ihr Sicherheitsstatus wird als die gesamte Cybersicherheitsschutzfunktion Ihrer Organisation definiert, zusammen mit dem Grad der Vorbereitung und des Betriebsstatus, um sich mit laufenden Cyber-Sicherheitsbedrohungen zu befassen. Dieser Zustand sollte quantifizierbar und messbar sein, ähnlich wie jede andere wichtige Metrik, die sich auf den Betriebsstatus oder das Wohlbefinden Ihrer Organisation bezieht.

Diagramm, das den Sicherheitsstatus der Organisation zeigt.

Das Erstellen eines starken Sicherheitskonzepts für KI bedeutet, in Ihrer Organisation zu arbeiten, insbesondere mit den Führungskräften Ihrer Organisation, um eine Strategie sowie eine Reihe von Prioritäten und Zielen zu entwickeln. Anschließend identifizieren Sie die technische Arbeit, die erforderlich ist, um die Ziele zu erreichen, und führen Sie die verschiedenen Teams, um sie zu erreichen. Die Artikel in dieser Bibliothek bieten eine Methodik mit Anleitungen, die für KI spezifisch sind:

  • Bereiten Sie Ihre Umgebung mit grundlegenden Sicherheitsschutzmechanismen vor. Wahrscheinlich haben Sie bereits viele dieser Schutzmaßnahmen eingerichtet.
  • Entdecken Sie die KI-Apps, die in Ihrer Organisation verwendet werden, einschließlich der Datentypen, die die Apps verwenden.
  • Schützen Sie die Nutzung von KI-Tools in Ihrer Organisation. Dazu gehören KI-spezifische Datenschutzfunktionen und sicherstellen, dass Ihre Organisation einen starken Bedrohungsschutz implementiert hat.
  • Regieren KI für Compliance.

Diagramm, das den Prozess der Implementierung der Sicherheit für KI zeigt.

Verwenden Sie diese Bibliothek zusammen mit den folgenden Frameworks in Microsoft Learn:

Diagramm, das das Framework der Sicherheit für KI zeigt.

In der Abbildung:

  • Verwenden Sie diese Bibliothek (Security for AI Library), um zu erfahren, wie Sie Funktionen zum Sichern von KI-Apps und -Daten in Ihrer Umgebung implementieren. Diese Schutzmaßnahmen helfen beim Erstellen Ihrer Zero Trust Foundation.
  • Verwenden Sie das Zero Trust-Einführungsframework , um weiterhin Fortschritte in Richtung End-to-End-Sicherheit zu erzielen. Jedes der Zero Trust-Geschäftsszenarien erhöht auch Ihre Sicherheit für KI-Apps und -Daten.
  • Verwenden Sie das Cloud Adoption Framework für KI , um Ihre End-to-End-Roadmap für die Einführung von KI zu entwickeln, einschließlich generativer und nicht generativer KI. Diese Bibliothek enthält Strategien für die Auswahl von KI-Technologien, Prozesse zum Sichern und Verwalten von KI sowie Ressourcen für KI-Design und -Implementierung.

Verstehen der Motivationen Ihrer Führungskräfte

Eine starke KI-Sicherheitslage ermöglicht Innovation – es ermöglicht Organisationen, KI mit Vertrauen und Agilität aufzubauen und bereitzustellen. Ziel ist es, die Organisation zu befähigen, KI-Systeme sicher zu erstellen, bereitzustellen und zu skalieren und gleichzeitig risiken zu schützen, die Vertrauen, Compliance oder Betriebsstabilität untergraben könnten. Durch die Einbettung der Sicherheit in die Grundlage von KI-Initiativen können Organisationen das volle Potenzial der KI verantwortungsbewusst freischalten, um sicherzustellen, dass sie ein strategisches Asset und nicht eine Quelle unbeabsichtigter Schäden bleibt.

Beginnen Sie mit der Entwicklung Ihrer Strategie und Prioritäten, indem Sie sich mit Ihren Führungskräften in Einklang bringen. Was motiviert Ihre Führungskräfte und warum kümmern sie sich um Ihren Sicherheitsstatus für KI? Die folgende Tabelle enthält Beispielperspektiven, aber es ist wichtig, dass Sie sich mit jedem dieser Führungskräfte und Teams treffen und zu einem gemeinsamen Verständnis der Motivationen der anderen kommen.

Rolle Warum der Aufbau einer starken Sicherheitslage für KI wichtig ist
Vorstandsvorsitzender (CEO) KI-Systeme gestalten zunehmend strategische Entscheidungen und Kundeninteraktionen. Eine Verletzung oder Manipulation von KI kann zu schlechten Entscheidungen, behördlicher Kontrolle, Reputationsschäden und verlorenem Vertrauen führen. Eine starke KI-Sicherheit ist entscheidend für die Organisation, um den Ruf des Unternehmens zu schützen, die rechtliche Compliance sicherzustellen und eine erfolgreiche KI-Transformation sicherzustellen.
Chief Marketing Officer (CMO) / Marketingvorstand KI-Tools fördern Kundeneinblicke, Zielgruppenadressierung und Personalisierung. Wenn kompromittiert, können diese Tools zu Datenlecks, verzerrten Ausgaben oder Markenschäden aufgrund unangemessener Inhalte oder Zielbestimmung führen. Durch die Sicherung von KI wird das Vertrauen in das Kundenengagement sichergestellt, markenintegrität beibehalten, PR-Katastrophen verhindert und das Engagement des Unternehmens zum Schutz der Privatsphäre des Kunden demonstriert.
Chief Information Officer (CIO) Eine sichere KI-Umgebung ist unerlässlich, um die Systemzulässigkeit zu gewährleisten, unbefugten Zugriff zu verhindern und die Betriebsresilienz aufrechtzuerhalten. Dies ermöglicht CIOs die sichere Integration von KI-Technologien, die das Geschäft verbessern, ohne das Unternehmen unnötigen Risiken auszusetzen.
Chief Information Security Officer (CISO) KI führt neue Angriffsflächen und neue Risiken ein und verstärkt gleichzeitig vorhandene Risiken. Zu den neuen Angriffsflächen gehören Eingabeaufforderungen, Antworten, Modelle, RAG-Daten, Modellkontextprotokoll (MCP), Schulungsdaten und Datenvergiftung, Jailbreak-Angriffe, Datensicherheit und vieles mehr. Die CISO muss anstrengungen bei der Bedrohungsmodellierung und sicherung von KI-Pipelines führen, um den Sicherheitsstatus des Unternehmens aufrechtzuerhalten. Robuste KI-Sicherheit ist eine Erweiterung der allgemeinen Cyber-Abwehrstrategie, um die Ressourcen der Organisation zu schützen, Sicherheitsframeworks einzuhalten und kunden- und Stakeholder-Vertrauen im Zeitalter intelligenter Systeme aufrechtzuerhalten.
Chief Technology Officer (CTO) Eine starke KI-Sicherheitslage ist für CTOs wichtig, um die technologischen Ressourcen der Organisation zu schützen und sicherzustellen, dass KI-Systeme zuverlässig wie vorgesehen funktionieren. Durch das Einbetten von Sicherheit in den KI-Entwicklungslebenszyklus trägt das CTO dazu bei, Verstöße gegen vertrauliche Algorithmen zu verhindern und hohe Qualität und Vertrauen in KI-gesteuerte Produkte aufrechtzuerhalten. Dies ermöglicht es Innovation, ohne unnötiges Risiko fortzufahren.
Leitender Betriebsleiter (COO) KI automatisiert kritische Prozesse in lieferketten-, logistik- und betriebsrelevanten Prozessen. Angriffe auf KI-Systeme können Dienste stören, das Betriebsrisiko erhöhen und kostspielige Verzögerungen verursachen. Eine starke KI-Sicherheitslage sorgt für Geschäftskontinuität und Effizienz.
Finanzvorstand (CFO) CFOs sehen einen robusten KI-Sicherheitsstatus als unerlässlich für den Schutz der Organisation an. Es hilft, unvorhergesehene finanzielle Verluste zu vermeiden und die Einhaltung von Gesetzen und Berichtspflichten zu gewährleisten.

Das Angehen der sich entwickelnden Bedrohungslandschaft für KI

GenAI führt neue Angriffsflächen ein, die die Risikolandschaft effektiv verändern. Neben der Verwaltung herkömmlicher Bedrohungsvektoren müssen Sicherheits- und Risikoführer auch amplifizierte Risiken wie Datenlecks und Datenüberteilungen sowie neue Risiken wie Einfügungen von Eingabeaufforderungen, falsche Informationen, Modellrisiken und falsche Informationen behandeln. Die Bewältigung der sich entwickelnden Bedrohungslandschaft ist entscheidend, um vertrauenswürdige KI zu ermöglichen.

Diagramm, das zeigt, wie die GenAI neue Risiken einführt.

In der Abbildung:

  • GenAI-Angriffsflächen führen zu neuen und verstärkten Risiken.
  • Bedrohungsvektoren, die unverändert bleiben, umfassen Ihre Anwendungen, Identitäten, Endpunkte, Netzwerke, Daten und Cloudressourcen.
  • GenAI führt neue Angriffsflächen ein, darunter Eingabeaufforderungen, Antworten, KI-Orchestrierung, Schulungsdaten, RAG-Daten (Retrieval-Augmented Generationsdaten, d. h. Daten, die sich aus Interaktionen Ihrer Daten oder anderen externen Daten mit Sprachmodellen ergeben), KI-Modelle und AI-Plug-Ins.
  • GenAI führt neue amplifizierte Risiken ein, darunter Datenlecks, Jailbreak (kompromittierende Geräte, die andernfalls gesichert sind), indirekte Einfügung von Eingabeaufforderungen und Modellrisiken.

Derzeit umfassen die häufigsten Sicherheitsvorfälle in KI:

  • Datenlecks und Überfreigabe – Benutzer können vertrauliche Daten in Schatten-KI-Apps (Apps, die nicht von Ihrem IT-Team genehmigt wurden) weitergeben. Benutzer können auch mithilfe von KI-Apps auf vertrauliche Daten zugreifen.
  • Sicherheitsrisiken und neue Bedrohungen – Schlechte Akteure können Sicherheitsrisiken in KI-Apps ausnutzen, um auf wertvolle Ressourcen zuzugreifen.
  • Nichteinhaltung – Vorschriften, einschließlich neuer KI-Verordnungen, können die Unsicherheit erhöhen. Die nicht kompatible KI-Einführung kann die Haftung erhöhen.

In den folgenden beiden Beispielszenarien wird die Notwendigkeit hervorgehoben, einen starken Sicherheitsstatus für KI zu erstellen.

Wie kommt es zu zu viel Teilen und zu Datenlecks?

In diesem Beispiel findet und verwendet ein Contoso-Mitarbeiter, Adele, vertrauliche Daten mit mehreren KI-Apps.

Schritt BESCHREIBUNG Nicht gemilderte Risiken
1 Adele belauscht ein Teammitglied, das auf das Projekt Obsidian verweist. Sie verwendet Microsoft 365 Copilot, um weitere Informationen darüber zu finden. Copilot liefert ihr eine Zusammenfassung und einen Link zu den Dokumenten. Copilot kann vertrauliche Daten ohne Einschränkungen verarbeiten. Vertrauliche Daten werden Mitarbeitenden übermäßig offengelegt, einschließlich auch Personen, die keinen Zugriff haben sollten.
2 Adele verwendet Copilot weiterhin, um weitere Informationen zu Project Obsidian zu finden und zu sammeln. Es gibt keine Steuerelemente, um Anomalien in KI-Apps zu erkennen.
3 Aus Neugier möchte Adele sehen, was ChatGPT zusammenfassen würde, sodass sie den Inhalt der Datei in ChatGTP einfüge. Es gibt keine Verhinderung von Datenverlust (Data Loss Prevention, DLP), um Datenlecks an KI-Apps von Verbrauchern zu verhindern.
4 Die Projektdetails wurden vorzeitig offenbart, was zu Datenschutzverletzungen führte. Contoso hat also alle KI-Apps am Arbeitsplatz gesperrt. Das völlige Verbot von künstlicher Intelligenz für Verbraucher kann zu einer erhöhten verdeckten Nutzung führen.

Contoso könnte diese Risiken mindern, indem sie die Arbeit der Vorbereitung, Entdeckung und des Schutzes der Nutzung von KI-Apps leisten.

Phase BESCHREIBUNG
Vorbereiten Verwenden Sie Entra und SharePoint Advanced Management , um den Zugriff der Mitarbeiter auf Ressourcen zu vergrößern.
Verwenden Sie Purview Information Protection , um vertrauliche Daten zu klassifizieren und zu kennzeichnen.
Entdecken Verwenden Sie Purview DSPM für KI , um Datenrisiken zu ermitteln.
Verwenden Sie einen Bericht über die Freigabebewertung, um die Überteilungsrisiken zu bewerten.
Schützen Erzwingen Sie Purview DLP für Microsoft 365 Copilot , um zu verhindern, dass Copilot vertrauliche Daten zusammenfasst.
Verwenden Sie purview Insider Risk Management , um Anomalieaktivitäten zu erkennen und zu untersuchen. Verwenden Sie adaptiven Schutz , um den Zugriff für Benutzer mit hohem Risiko dynamisch einzuschränken.
Verwenden Sie Defender für Cloud-Apps , um Apps mit hohem Risiko zu blockieren.
Verwenden Sie den bedingten Zugriff von Entra , um Adele vor dem Gewähren des Zugriffs auf ChatGPT zu verpflichten, Nutzungsbedingungen zu akzeptieren.
Verwenden Sie Purview-Endpunkt-DLP, um das Einfügen vertraulicher Daten an KI-Apps von Verbrauchern zu blockieren.

Wie kann KI Risiken für die Compliance einführen?

In diesem nächsten Beispiel wird Jane damit beauftragt, die Governance der künstlichen Intelligenz für Contoso zu leiten.

Schritt BESCHREIBUNG Nicht gemilderte Risiken
1 Jane kämpft darum, regulatorische Anforderungen in umsetzbare Kontrollen für IT-Teams zu interpretieren, die implementiert werden sollen. Mangel an Experten, die sowohl in regulatorischen Anforderungen als auch in der Technologie gut versiert sind.
2 Jane beginnt mit der Vorbereitung auf Risikobewertungen, weiß aber nicht, welche KI-Systeme bei Contoso erstellt und verwendet werden. Sie hat auch keinen Einblick in die Nutzungs- und potenziellen Compliancerisiken. Keine Einblicke in KI-Systeme, die in der Umgebung eingesetzt werden. Keine Governance der KI-Nutzung.
3 Nach mehreren internen Interviews erkennt Jane, dass Entwickler rund 14 KI-Apps gleichzeitig erstellen, die verschiedene Standards für Sicherheit, Sicherheit und Datenschutzkontrollen implementiert haben. Keine Einblicke in die in KI-Systeme integrierten Steuerelemente durch Entwickler.
4 Einige KI-Apps verwenden personenbezogene Daten ohne Standardschutzschienen, um Risiken zu bewerten. Keine Risikobewertung vorhanden.
5 Kunden beschweren sich darüber, dass Contoso KI schädliche und nicht geerdete Inhalte erstellt. Fehlende Steuerelemente für KI-Ausgaben.

KI-Vorschriften bringen Unsicherheit und überwältigende Haftungsrisiken für Führungskräfte, die für KI-Governance verantwortlich sind. Ohne Änderungen riskiert Contoso, dass die ANFORDERUNGEN der KI-Vorschriften verletzt werden und möglicherweise Sanktionen und Reputationsschäden entstehen.

Contoso könnte diese Risiken mindern, indem sie die Arbeit der Vorbereitung, Entdeckung und des Schutzes der Nutzung von KI-Apps leisten.

Phase BESCHREIBUNG
Vorbereiten Verwenden Sie purview Compliance Manager , um Anleitungen zur Implementierung von Steuerelementen zu erhalten, die zur Erfüllung der Complianceanforderungen beitragen können.
Entdecken Verwenden Sie Defender für Cloud , um KI-Ressourcen zu ermitteln, die in Cloudumgebungen bereitgestellt werden. Verwenden Sie Defender für Cloud-Apps , um saaS AI-Apps zu entdecken, die verwendet werden.
Regieren Steuern der KI-Nutzung mit Microsoft Purview Audit, Data Lifecycle Management, Communication Compliance und eDiscovery.
Verwenden Sie KI-Berichte in Azure AI Foundry , damit Entwickler KI-Projektdetails dokumentieren können.
Verwenden Sie Priva Privacy Assessments , um Datenschutzrisiken für jedes KI-Projekt proaktiv auszuwerten.
Verwenden Sie Azure AI Content Safety , um Risiken schädlicher oder nicht geerdeter Inhalte zu minimieren.

Mit der proaktiven Verwendung von Governance-Funktionen können Organisationen Risiken bewerten und adressieren, während sie KI einführen.

Fünf Schritte zur Implementierung einer effektiven Sicherheit für KI

Da das Bewusstsein für die Risiken, die mit der schnellen Implementierung von GenAI verbunden sind, steigt, reagieren viele Organisationen proaktiv, indem sie erhebliche Ressourcen zur Verbesserung ihrer Sicherheitsmaßnahmen dedidieren. Sicherheits- und Risikoführer können mehrere umsetzbare Schritte unternehmen, um einen Weg zur sicheren und sicheren KI-Innovation zu schaffen.

Diese empfohlenen Methoden konzentrieren sich auf die Förderung einer kollaborativen Umgebung und die Implementierung effektiver Sicherheitsmaßnahmen, die GenAI-Fortschritte unterstützen und gleichzeitig organisatorische Interessen schützen.

Schritt 1– Erstellen eines Sicherheitsteams für KI

Eine Mehrheit der Unternehmen erkennt die Notwendigkeit, dedizierte, funktionsübergreifende Teams zu bilden, um die einzigartigen Sicherheitsprobleme der KI zu verwalten. Dedizierte Sicherheitsteams stellen sicher, dass KI-Systeme streng getestet werden, Sicherheitsrisiken schnell identifiziert und abgemildert werden, und Sicherheitsprotokolle werden kontinuierlich aktualisiert, um mit sich entwickelnden Bedrohungen Schritt zu halten.

Achtzig Prozent der Befragten der Umfrage haben derzeit entweder (45%) oder planen (35%) ein dediziertes Team, um die Sicherheit für KI zu adressieren. Über 6 in 10 sagte, dass ihre Teams einem Sicherheitsentscheidungsträger melden werden, um nicht nur eine wachsame Aufsicht, sondern auch strategische Vision und Führung bei der Bewältigung von KI-bezogenen Risiken sicherzustellen.

Insbesondere die mediane Teamgröße oder die beabsichtigte Teamgröße dieser dedizierten Sicherheitsteams betrug 24 Mitarbeiter – unterstreicht die erheblichen Ressourcen, die Unternehmen einsetzen, um ihre KI-Initiativen zu schützen. Als die Größe des Unternehmens berücksichtigt wurde, variierten die Teamgrößen.

Im Folgenden finden Sie einige bewährte Methoden, mit denen Organisationen erfolgreich ein effektives funktionsübergreifendes Sicherheitsteam für KI erstellen können.

Bilden Sie ein KI-Komitee, um die Zusammenarbeit in verschiedenen Abteilungen zu fördern

Sicherheit für KI ist ein kollektiver Aufwand, der über die IT-Abteilung hinausgeht. Fördern Sie die Zusammenarbeit zwischen Teams wie Sicherheit, IT, Legal, Compliance und Risikomanagement, um umfassende Sicherheitsstrategien zu erstellen. Durch unterschiedliche Perspektiven und Expertise wird die Effektivität von Sicherheitsprotokollen verbessert.

Einstellung von vielfältigen Kompetenzprofilen

Die Bildung eines erfolgreichen Sicherheitsteams für KI erfordert ein Gleichgewicht der Fähigkeiten. Suchen Sie nach Teammitgliedern mit Know-how in Data Science, Cybersicherheit, Software engineering und Machine Learning. Diese Vielfalt stellt sicher, dass verschiedene Aspekte der Sicherheit abgedeckt werden, von der technischen Entwicklung bis hin zur Bedrohungsprävention.

Festlegen klarer Rollen und Zuständigkeiten

Um eine effektive Produktivität zu erzielen, definieren Sie die Rolle jedes Teammitglieds eindeutig. Stellen Sie sicher, dass alle ihre spezifischen Verantwortlichkeiten verstehen, was die Verantwortlichkeit fördert und überlappende Anstrengungen vermeidet.

Investieren Sie in kontinuierliche Ausbildung und Entwicklung

Die schnelle Weiterentwicklung von KI-Technologien mandatiert die laufende Ausbildung für Sicherheitsteams. Bieten Sie Zugang zu Schulungsprogrammen und Workshops, die sich auf Praktiken, aufkommende Bedrohungen und ethische Überlegungen im Zusammenhang mit der Sicherheit für KI konzentrieren. Diese Investition stärkt nicht nur die Teammitglieder, sondern stellt auch sicher, dass die Organisation potenziellen Schwachstellen voraus bleibt.

Schritt 2: Optimieren von Ressourcen zum Sichern von GenAI

Die Einführung von KI-Anwendungen in Organisationen revolutioniert nicht nur Vorgänge, sondern erfordert auch erhebliche Änderungen an Ressourcen- und Budgetzuweisungen, insbesondere in der IT-Sicherheit.

Eine erhebliche Mehrheit der Sicherheits- und Risikoleiter (78%) glauben, dass ihr IT-Sicherheitsbudget steigen wird, um die einzigartigen Herausforderungen und Chancen der KI zu bewältigen. Diese Anpassung ist aus mehreren Gründen von entscheidender Bedeutung. KI-Systeme erfordern eine robuste Sicherheitsinfrastruktur, um sicher zu arbeiten. Dies kann ein Upgrade vorhandener Sicherheitssysteme, die Implementierung strengerer Zugriffskontrollen und die Verbesserung der Datensicherheit und Governance umfassen. Andere Ressourcen könnten ebenfalls erforderlich sein, um die neuen regulatorischen Anforderungen an KI zu erfüllen.

Weiter oben in diesem Artikel empfiehlt Microsoft, die Arbeit zu erledigen, um die Motivationen von Führungskräften und verschiedenen Geschäftseinheiten in Ihrer Organisation zu verstehen. Die Ermittlung der wichtigsten Bedenken und gemeinsamen Geschäftsziele ist ein wichtiger Schritt bei der Aushandlung von Ressourcen zur Erreichung der Ziele.

Die Zuweisung von Mitteln für Compliancebewertungen, rechtliche Konsultationen und Audits ist unerlässlich, um die KI-Strategie einer Organisation an ein Branchenframework auszurichten und eine sicherere, sichere und kompatibleRE KI-Nutzung und -Systeme zu ermöglichen. Die Priorisierung von Mitteln für laufende Mitarbeiterschulungen und die Qualifikationsentwicklung, die spezielle Schulungen zu Sicherheitstools für KI, Risikomanagementstrategien und ethische Überlegungen bei der KI-Nutzung umfassen könnte, ist auch wichtig, wenn Budget und Ressourcen zugeordnet werden.

Schritt 3 – Erstellen eines Zero Trust-Ansatzes

Bei der Vorbereitung der KI-Einführung bietet eine Zero Trust-Strategie Sicherheits- und Risikoführern eine Reihe von Prinzipien, die bei einigen ihrer wichtigsten Bedenken helfen, einschließlich Datenüberteilung oder Überlichtung und Schatten-IT. Ein Zero Trust-Ansatz verschiebt sich von einem netzwerkorientierten Fokus auf einen Ressourcen- und datenzentrierten Fokus und behandelt jede Zugriffsanforderung als potenzielle Bedrohung, unabhängig von ihrem Ursprung.

Zero Trust überprüft ständig die Identitäten jedes Benutzers und Geräts und stellt sicher, dass nur diejenigen mit klaren Berechtigungen vertrauliche Informationen erreichen können. Durch die dynamische Anpassung von Sicherheitsmaßnahmen basierend auf Echtzeitbewertungen minimiert Zero Trust das Risiko von Datenlecks und schützt eine Organisation vor internen und externen Bedrohungen. Kontinuierliche Überprüfung, geringster Zugriff auf Rechte und dynamisches Risikomanagement sind die Eckpfeiler dieses Ansatzes und bieten ein robustes und anpassbares Sicherheitsframework, das den Erfolg der End-to-End-Sicherheit einer Organisation unterstützt.

Durch die Einführung von Zero Trust können Organisationen ihre KI-Bereitstellungen sichern und wissen, dass ihre Sicherheit kontinuierlich überprüft und geschützt wird. Zero Trust ermöglicht Organisationen, KI sicher zu nutzen, um sicherzustellen, dass die leistungsstarken Funktionen von KI sicher und effektiv genutzt werden.

Alle Sicherheitsleitlinien für KI, die von Microsoft bereitgestellt werden, basieren auf Zero Trust-Prinzipien. Indem Sie den für GenAI empfohlenen Sicherheitsleitfaden folgen, erstellen Sie eine starke Zero Trust-Grundlage.

Schritt 4 – Investieren Sie in gemeinsame Verantwortung mit Partnern, die Sie vertrauen

Eine Ressource, die häufig dazu verwendet wird, Strategie und Prioritäten zu informieren, ist das Modell der gemeinsamen Verantwortung. Ihre Verantwortung für die Sicherung der KI-Verwendung in Ihrer Organisation basiert auf der Art der verwendeten Apps. Die Partner, in die Sie investieren, teilen die Verantwortung mit Ihnen.

Ein Modell für gemeinsame Verantwortung hilft Sicherheitsteams, ihre Organisation zu leiten, um Folgendes auszuwählen:

  • GenAI-Apps, die die Verantwortung für ihre Organisationen reduzieren.
  • Partner, die ihr Vertrauen verdient haben.

Diagramm, das das Verantwortungsmodell für geteilte KI zeigt.

In diesem Diagramm werden die Verantwortlichkeiten für Sie und Microsoft zusammengefasst. Viele Organisationen verwenden das Modell für gemeinsame Verantwortung, um die Verwendung von SaaS-Apps in Partnerschaft mit vertrauenswürdigen Anbietern zu priorisieren und die Anzahl von benutzerdefinierten Apps zu reduzieren.

Weitere Informationen finden Sie unter KI-Modell für gemeinsame Verantwortung – Microsoft Azure.

Neben der Investition mit Partnern, die Ihr Vertrauen verdient haben, empfehlen viele Sicherheitsexperten, Sicherheitstools und -anbieter zu konsolidieren. Microsoft bietet eine umfassende Sicherheitslösung für KI mit Tools, die zusammenarbeiten, wodurch das Integrationsvolumen für Sicherheitsteams erheblich reduziert wird.

Schritt 5 – Einführung einer umfassenden Sicherheitslösung für KI

KI führt spezifische Risiken ein, die herkömmliche Sicherheitsmaßnahmen möglicherweise nicht vollständig adressieren. Sicherheit für KI soll diese Risiken mindern.

Eine erhebliche Mehrheit der Unternehmen plant, spezialisierte Tools und Plattformen zu beschaffen, um sowohl die Nutzung als auch die Entwicklung von KI-Anwendungen zu sichern. Wenn sie gefragt werden, wie sie planen, die Nutzung und Entwicklung von KI-Anwendungen in ihren Organisationen zu sichern und zu schützen, sagten die meisten Befragten (72%), dass sie beabsichtigen, eine neue dedizierte Sicherheitslösung zu beschaffen, um die Nutzung und Entwicklung von KI zu sichern, während 64% erklärten, dass sie vorhandene Sicherheitslösungen verwenden möchten, um KI zu sichern.

IT- und Sicherheitsleiter glauben, dass die wichtigsten Budgetmitwirkenden für neue Lösungen für den Schutz und die Governance von KI IT-Abteilungen (63%) und Informationssicherheit/ Cybersicherheitsabteilungen (57%) sein werden. Diese Ergebnisse zeigen, dass Organisationen neben der fortgesetzten Nutzung vorhandener Sicherheitslösungen auch die Notwendigkeit sehen, nach neuen Lösungen zu suchen, die helfen können, die verstärkten und aufkommenden Risiken von KI zu bewältigen.

Auf der End-to-End-Sicherheitsplattform von Microsoft bietet Microsoft umfassende Sicherheitstools zum Sichern von KI, von der Entdeckung von KI-Tools und -Daten bis hin zu Schutzmaßnahmen, die speziell zur Entschärfung von KI-Bedrohungen entwickelt wurden. Zu diesen Tools gehören anspruchsvolle Dashboards und Complianceressourcen, die Ihnen helfen, die Risiken und regulatorischen Verpflichtungen zu beachten.

Microsoft-Funktionen bieten umfassenden Schutz für Ihre KI-Apps und -Daten.

Die folgende Abbildung ist eine Zusammenfassungsansicht aller Funktionen, die Microsoft zum Schutz der Einführung von KI bereitstellt. Diese Funktionen sind auch in der folgenden Tabelle aufgeführt.

Diagramm der Microsoft-Produkte, die bei der Sicherheit für KI helfen.

Wichtigste Kundenanliegen Fähigkeiten
Verhindern von Datenlecks und übermäßigem Teilen – Zugriffs- und Endpunktsteuerungen – Microsoft Entra & Intune
- Verwaltung der Datensicherheitslage für KI – Microsoft Purview
- Datenklassifizierung, Bezeichnung und Schutz – Microsoft Purview
- Verhinderung von Datenverlust – Microsoft Purview
- Anomalie- und riskante Aktivitäten erkennung und Reaktion — Microsoft Purview
– SaaS-App-Sicherheit – Microsoft Defender
Schützen von KI vor Sicherheitsrisiken und neuen Bedrohungen – Datensicherheit und Governance – Microsoft Purview
- Bewertung von Qualitäts-, Sicherheits- und Sicherheitskontrollen – Azure AI Foundry
– Sicherheitsstatusverwaltung für KI-Ressourcen (Apps, Modelle, Orchestratoren, SDKs) – Microsoft Defender
– Modellgovernancerichtlinie – Azure Portal
– Schutzschild zur Sicherheit von Inhalten – Azure AI
– Bedrohungsschutz für KI-Workloads – Microsoft Defender
Steuerung von KI zur Einhaltung gesetzlicher Vorschriften – Compliancebewertungen gegen KI-Vorschriften und -Standards – Microsoft Purview
– KI-Ermittlung und Katalog – Microsoft Defender
- Prompt- & Antwortprüfungen, Lifecycle Management, eDiscovery, Kommunikationscompliance — Microsoft Purview
- KI-Berichte für Entwickler zum Protokollieren von Projektdetails und Steuerelementen – Azure AI Foundry
– Datenschutz-Folgenabschätzung – Microsoft Priva
– Risikominderung für schädliche Inhalte, falsche Informationen und geschützte Materialien – Azure AI Content Safety

Nächste Schritte zum Sichern von KI

Diese Bibliothek führt Sie durch den Prozess der Implementierung der Sicherheit für KI in einem mehrstufigen Ansatz.

Diagramm, das den Prozess der Implementierung der Sicherheit für KI zeigt.

Befolgen Sie die Anleitungen in dieser Artikelreihe, um mehr über die Sicherung von KI zu erfahren und Funktionen zu identifizieren und zu implementieren, um die Ziele Ihrer Organisation zu erreichen.

Weitere Informationen zum Optimieren Ihres gesamten Sicherheitsstatus und von Zero Trust finden Sie unter "Schnell modernisieren Sie Ihren Sicherheitsstatus".

Informationen zu den ersten Schritten mit empfohlenen Sicherheitsschutzfunktionen für KI-Begleitpersonen finden Sie unter Verwendung der Zero Trust-Sicherheit, um sich auf KI-Begleitpersonen vorzubereiten, einschließlich Microsoft Copilots.