Udostępnij przez


Seria szkoleniowa z zakresu testów red teaming dla sztucznej inteligencji: zabezpieczanie systemów generatywnej AI

Seria szkoleniowa AI Red Teaming 101 firmy Microsoft pomaga specjalistom zabezpieczyć systemy generowania sztucznej inteligencji przed pojawiającymi się zagrożeniami. Ta seria zawiera szczegółowe informacje na temat luk w zabezpieczeniach, technik ataków i strategii obrony, zapewniając praktyczne informacje i praktyczne doświadczenie. Niezależnie od tego, czy jesteś ekspertem ds. zabezpieczeń, inżynierem uczenia maszynowego, czy liderem biznesowym, uzyskasz praktyczną wiedzę za pomocą rzeczywistych analiz przypadków, epizodów modułowych i narzędzi do testowania automatycznego. Zapoznaj się z tematami, takimi jak ataki wstrzyknięcia poleceń, techniki wieloetapowe adwersarzy i skalowalne metody obrony, aby zwiększyć swoją wiedzę w dziedzinie zabezpieczeń SI.

Dlaczego oglądać tę serię treningów

Uzyskaj porady umożliwiające podejmowanie działań, aby pomóc zidentyfikować, wykorzystać i bronić przed krytycznymi lukami w zabezpieczeniach w systemach generacyjnych sztucznej inteligencji. Poznaj najlepsze rozwiązania, techniki i wskazówki na podstawie rzeczywistych lekcji od zespołu sztucznej inteligencji firmy Microsoft.

Kto powinien oglądać tę serię treningów

Seria szkoleniowa jest przydatna dla zespołów ds. zabezpieczeń, inżynierów uczenia maszynowego, praktyków sztucznej inteligencji i liderów biznesowych pracujących ze sztuczną inteligencją. Przede wszystkim koncentruje się na:

  • Specjaliści ds. zabezpieczeń: poznaj wektory ataków specyficzne dla sztucznej inteligencji i strategie obrony.
  • Praktycy uczenia maszynowego i inżynierowie sztucznej inteligencji: dodaj testowanie zabezpieczeń do przepływów pracy tworzenia sztucznej inteligencji.
  • Architekci przedsiębiorstwa i zabezpieczeń: tworzą bezpieczne systemy sztucznej inteligencji i eksplorują pojawiające się zagrożenia.

Wskazówka

Filmy wideo AI Red Teaming 101 są modułowe, więc możesz przejść do dowolnej sekcji zainteresowania lub rozpocząć od początku i obejrzeć je wszystkie. Pobierz slajdy i postępuj zgodnie z instrukcjami we własnym tempie.

Co znajduje się w serii szkoleniowej

Seria szkoleniowa zawiera wskazówki dotyczące rozumienia generowania luk w zabezpieczeniach sztucznej inteligencji, wykonywania technik ataku i implementowania środków obronnych. Warsztaty obejmują praktyczne pokazy, rzeczywiste analizy przypadków i zautomatyzowane narzędzia do testowania oparte na produkcyjnych praktykach zabezpieczeń sztucznej inteligencji firmy Microsoft.

Wskazówka

Wszystkie odcinki obejmują praktyczne pokazy i dostęp do laboratoriów zespołów red teaming firmy Microsoft dla zdobycia praktycznego doświadczenia.

Wprowadzenie i podstawy

Odcinek 1: Co to jest red teaming sztucznej inteligencji? — Wprowadzenie do podstaw red teamingu sztucznej inteligencji, kluczowych czynników ryzyka w generowaniu sztucznej inteligencji i misji czerwonego zespołu firmy Microsoft ds. sztucznej inteligencji

Odcinek 2. Jak działają generowanie modeli sztucznej inteligencji — opis architektury modelu, etapów trenowania i dlaczego te modele tworzą unikatowe zagrożenia bezpieczeństwa

Część A — podstawowe techniki ataków

Odcinek 3: Wyjaśnienie bezpośredniego wstrzyknięcia poleceń — jak atakujący manipulują zachowaniem modelu poprzez wstrzyknięcie złośliwych instrukcji, w tym rzeczywistych studiów przypadków, takich jak atak czatbota SUV za 1 dolara

Odcinek 4: Wyjaśnienie pośredniego wstrzykiwania monitów — ukryte ataki, w których złośliwe instrukcje są schowane w zewnętrznych źródłach danych, takich jak e-maile, witryny internetowe lub bazy danych

Odcinek 5: ataki Single-Turn — zaawansowane techniki inżynierii promptów, w tym hakowanie osobowości, manipulacja emocjonalna i omijanie filtrów za pomocą sztuczek kodowania

Odcinek 6: Ataki wielokręciowe - techniki takie jak Skeleton Key i Crescendo, które stopniowo kierują modele w kierunku pomijania ochrony bezpieczeństwa

Część B — ochrona i środki zaradcze

Odcinek 7: Obrona przed atakami — strategie ograniczania ryzyka i techniki poręczy, w tym metody obrony w centrum uwagi firmy Microsoft (rozdzielanie, oznaczanie danych i kodowanie)

Część C — automatyzacja i skalowanie

Odcinek 8: Automatyzacja testów przeciwdziałania AI za pomocą PyRIT — wprowadzenie do narzędzia open source firmy Microsoft do automatyzacji i skalowania testów przeciwdziałających systemom generatywnej sztucznej inteligencji, Python Risk Identification Tool (PyRIT)

Odcinek 9: Automatyzowanie ataków Single-Turn — praktyczny pokaz konfigurowania zestawów danych, obiektów docelowych i logiki oceniania w celu wysyłania wielu monitów jednocześnie przy użyciu narzędzia PyRIT

Odcinek 10: Automatyzowanie ataków wieloetapowych — zaawansowane techniki automatyzacji rozmów wieloetapowych, w tym adwersaryjne konwersacje modelu i testowanie systemów generowania tekstu i obrazów

Czego się uczysz

Po ukończeniu tej serii szkoleniowej zrozumiesz:

  • Podstawy czerwonych testów zespołów AI w porównaniu z tradycyjnymi metodami czerwonego zespołowania
  • Podstawowe luki w zabezpieczeniach w systemach generatywnej sztucznej inteligencji, takie jak wstrzyknięcie monitu i niedopasowanie modelu
  • Techniki ataków – od prostej manipulacji monitami do zaawansowanych wielozadaniowych strategii przeciwnych
  • Strategie obrony, w tym sprawdzone techniki łagodzenia skutków, takie jak metody Spotlight firmy Microsoft
  • Narzędzia automatyzacji do skalowania działań zespołu red team przy użyciu PyRIT i innych narzędzi open source
  • Rzeczywiste aplikacje z praktycznymi laboratoriami i analizami przypadków z pracy produkcyjnej w zakresie zabezpieczeń sztucznej inteligencji firmy Microsoft