Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die Schulungsreihe "AI Red Teaming 101 " von Microsoft hilft Fachleuten, generierende KI-Systeme vor neuen Bedrohungen zu sichern. Diese Reihe befasst sich mit Sicherheitsrisiken, Angriffstechniken und Verteidigungsstrategien und bietet umsetzbare Einblicke und praktische Erfahrungen. Ganz gleich, ob Sie Sicherheitsexperte, Machine Learning-Ingenieur oder Business Leader sind, sie erhalten praktische Kenntnisse über reale Fallstudien, modulare Episoden und automatisierte Testtools. Erkunden Sie Themen wie Prompt-Injection-Angriffe, mehrteilige Adversarial-Techniken und skalierbare Verteidigungsmethoden, um Ihr Fachwissen im Bereich KI-Sicherheit zu erweitern.
Warum schauen Sie sich diese Schulungsserie an
Erhalten Sie umsetzbare Ratschläge, um kritische Sicherheitsrisiken in generativen KI-Systemen zu identifizieren, auszunutzen und zu verteidigen. Lernen Sie bewährte Methoden, Techniken und Anleitungen basierend auf realen Lektionen aus dem AI Red Team von Microsoft kennen.
Wer sollte diese Schulungsserie ansehen?
Die Schulungsreihe ist nützlich für Sicherheitsteams, ML-Ingenieure, KI-Experten und Unternehmensleiter, die mit KI arbeiten. Sie konzentriert sich in erster Linie auf:
- Sicherheitsexperten: Erfahren Sie mehr über KI-spezifische Angriffsvektoren und Verteidigungsstrategien.
- ML-Experten und KI-Ingenieure: Fügen Sie Sicherheitstests zu KI-Entwicklungsworkflows hinzu.
- Unternehmens- und Sicherheitsarchitekten: Schaffen Sie sichere KI-Systeme und erkunden Sie neue Bedrohungen.
Tipp
Die KI Red Teaming 101-Videos sind modular, sodass Sie zu jedem interessanten Abschnitt springen oder zu Beginn beginnen und alles ansehen können. Laden Sie die Folien herunter, und folgen Sie in Ihrem eigenen Tempo.
Was ist in der Schulungsserie?
Die Schulungsreihe bietet Anleitungen zum Verständnis von generativen KI-Sicherheitsrisiken, zum Ausführen von Angriffstechniken und zum Implementieren von Abwehrmaßnahmen. ** Der Workshop umfasst praktische Demonstrationen, praxisnahe Fallstudien und automatisierte Testtools basierend auf den Sicherheitspraktiken der KI von Microsoft.
Tipp
Alle Episoden umfassen praktische Demonstrationen und Zugriff auf die Red-Teaming-Labore von Microsoft, um praktische Erfahrungen zu sammeln.
Einführung und Grundlagen
Episode 1: Was ist KI Red Teaming? - Einführung in die Grundlagen des AI-Rotes Teaming, Schlüsselrisiken der generativen KI und die Mission des KI-Roten Teams von Microsoft
Episode 2: Wie generative KI-Modelle funktionieren - Grundlegendes zur Modellarchitektur, Schulungsphasen und warum diese Modelle einzigartige Sicherheitsrisiken erzeugen
Teil A – Kernangriffstechniken
Episode 3: Direkte Eingabeaufforderungsinjektion erklärt - Wie Angreifer das Modellverhalten manipulieren, indem schädliche Anweisungen eingefügt werden, einschließlich realer Fallstudien wie dem $1 SUV-Chatbot-Angriff
Episode 4: Indirekte Eingabeaufforderungsinjektion erklärt - Stealthy-Angriffe, bei denen böswillige Anweisungen in externen Datenquellen wie E-Mails, Websites oder Datenbanken verborgen sind
Episode 5: Einteilige Angriffe: Fortgeschrittene Prompt-Engineering-Techniken, darunter Persona-Hacking, emotionale Manipulation und Filterumgehung mit Codierungstricks
Episode 6: Mehrteilige Angriffe: Techniken wie Skeleton Key und Crescendo, die Modelle schrittweise dazu bringen, Sicherheitsvorkehrungen zu umgehen
Teil B – Verteidigung und Entschärfung
Episode 7: Schutz vor Angriffen – Gegenmaßnahmenstrategien und Schutzvorrichtungs-Techniken, einschließlich Microsofts Spotlight-Abwehrmethoden (Abgrenzung, Datenmarkierung und Codierung)
Teil C – Automatisierung und Skalierung
Episode 8: Automatisierung des KI-Red-Teamings mit PyRIT - Einführung in das Open-Source-Tool von Microsoft zum Automatisieren und Skalieren adversarialer Tests von generativen KI-Systemen, dem Python Risk Identification Tool (PyRIT)
Episode 9: Automatisieren von Single-Turn Attacken - Praktische Demonstration der Konfiguration von Datasets, Zielen und Bewertungslogik, um viele Eingabeaufforderungen gleichzeitig mithilfe von PyRIT zu senden
Episode 10: Automatisierung von mehrteiligen Angriffen: Fortgeschrittene Automatisierungstechniken für mehrteilige Unterhaltungen, darunter Unterhaltungen mit Adversarial-Modellen und das Testen von Text- und Bildgenerierungssystemen
Lerninhalt
Nachdem Sie diese Schulungsreihe abgeschlossen haben, verstehen Sie Folgendes:
- Grundlagen des KI-Red-Teaming im Vergleich zu herkömmlichen Red-Teaming-Ansätzen
- Kernrisiken in generativen KI-Systemen, z. B. Prompt-Injection und Modellfehlanpassung
- Angriffstechniken, von einfacher Prompt-Manipulation bis hin zu ausgefeilten mehrteiligen Adversarial-Strategien
- Verteidigungsstrategien, einschließlich bewährter Gegenmaßnahmen wie die Spotlighting-Methoden von Microsoft
- Automatisierungstools zur Skalierung von Red-Teaming-Bemühungen mithilfe von PyRIT und anderen Open-Source-Tools
- Reale Anwendungen mit Praxislabs und Fallstudien aus der KI-Sicherheitsarbeit von Microsoft für die Produktion