Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Seria szkoleniowa AI Red Teaming 101 firmy Microsoft pomaga specjalistom zabezpieczyć systemy generowania sztucznej inteligencji przed pojawiającymi się zagrożeniami. Ta seria zawiera szczegółowe informacje na temat luk w zabezpieczeniach, technik ataków i strategii obrony, zapewniając praktyczne informacje i praktyczne doświadczenie. Niezależnie od tego, czy jesteś ekspertem ds. zabezpieczeń, inżynierem uczenia maszynowego, czy liderem biznesowym, uzyskasz praktyczną wiedzę za pomocą rzeczywistych analiz przypadków, epizodów modułowych i narzędzi do testowania automatycznego. Zapoznaj się z tematami, takimi jak ataki wstrzyknięcia poleceń, techniki wieloetapowe adwersarzy i skalowalne metody obrony, aby zwiększyć swoją wiedzę w dziedzinie zabezpieczeń SI.
Dlaczego oglądać tę serię treningów
Uzyskaj porady umożliwiające podejmowanie działań, aby pomóc zidentyfikować, wykorzystać i bronić przed krytycznymi lukami w zabezpieczeniach w systemach generacyjnych sztucznej inteligencji. Poznaj najlepsze rozwiązania, techniki i wskazówki na podstawie rzeczywistych lekcji od zespołu sztucznej inteligencji firmy Microsoft.
Kto powinien oglądać tę serię treningów
Seria szkoleniowa jest przydatna dla zespołów ds. zabezpieczeń, inżynierów uczenia maszynowego, praktyków sztucznej inteligencji i liderów biznesowych pracujących ze sztuczną inteligencją. Przede wszystkim koncentruje się na:
- Specjaliści ds. zabezpieczeń: poznaj wektory ataków specyficzne dla sztucznej inteligencji i strategie obrony.
- Praktycy uczenia maszynowego i inżynierowie sztucznej inteligencji: dodaj testowanie zabezpieczeń do przepływów pracy tworzenia sztucznej inteligencji.
- Architekci przedsiębiorstwa i zabezpieczeń: tworzą bezpieczne systemy sztucznej inteligencji i eksplorują pojawiające się zagrożenia.
Wskazówka
Filmy wideo AI Red Teaming 101 są modułowe, więc możesz przejść do dowolnej sekcji zainteresowania lub rozpocząć od początku i obejrzeć je wszystkie. Pobierz slajdy i postępuj zgodnie z instrukcjami we własnym tempie.
Co znajduje się w serii szkoleniowej
Seria szkoleniowa zawiera wskazówki dotyczące rozumienia generowania luk w zabezpieczeniach sztucznej inteligencji, wykonywania technik ataku i implementowania środków obronnych. Warsztaty obejmują praktyczne pokazy, rzeczywiste analizy przypadków i zautomatyzowane narzędzia do testowania oparte na produkcyjnych praktykach zabezpieczeń sztucznej inteligencji firmy Microsoft.
Wskazówka
Wszystkie odcinki obejmują praktyczne pokazy i dostęp do laboratoriów zespołów red teaming firmy Microsoft dla zdobycia praktycznego doświadczenia.
Wprowadzenie i podstawy
Odcinek 1: Co to jest red teaming sztucznej inteligencji? — Wprowadzenie do podstaw red teamingu sztucznej inteligencji, kluczowych czynników ryzyka w generowaniu sztucznej inteligencji i misji czerwonego zespołu firmy Microsoft ds. sztucznej inteligencji
Odcinek 2. Jak działają generowanie modeli sztucznej inteligencji — opis architektury modelu, etapów trenowania i dlaczego te modele tworzą unikatowe zagrożenia bezpieczeństwa
Część A — podstawowe techniki ataków
Odcinek 3: Wyjaśnienie bezpośredniego wstrzyknięcia poleceń — jak atakujący manipulują zachowaniem modelu poprzez wstrzyknięcie złośliwych instrukcji, w tym rzeczywistych studiów przypadków, takich jak atak czatbota SUV za 1 dolara
Odcinek 4: Wyjaśnienie pośredniego wstrzykiwania monitów — ukryte ataki, w których złośliwe instrukcje są schowane w zewnętrznych źródłach danych, takich jak e-maile, witryny internetowe lub bazy danych
Odcinek 5: ataki Single-Turn — zaawansowane techniki inżynierii promptów, w tym hakowanie osobowości, manipulacja emocjonalna i omijanie filtrów za pomocą sztuczek kodowania
Odcinek 6: Ataki wielokręciowe - techniki takie jak Skeleton Key i Crescendo, które stopniowo kierują modele w kierunku pomijania ochrony bezpieczeństwa
Część B — ochrona i środki zaradcze
Odcinek 7: Obrona przed atakami — strategie ograniczania ryzyka i techniki poręczy, w tym metody obrony w centrum uwagi firmy Microsoft (rozdzielanie, oznaczanie danych i kodowanie)
Część C — automatyzacja i skalowanie
Odcinek 8: Automatyzacja testów przeciwdziałania AI za pomocą PyRIT — wprowadzenie do narzędzia open source firmy Microsoft do automatyzacji i skalowania testów przeciwdziałających systemom generatywnej sztucznej inteligencji, Python Risk Identification Tool (PyRIT)
Odcinek 9: Automatyzowanie ataków Single-Turn — praktyczny pokaz konfigurowania zestawów danych, obiektów docelowych i logiki oceniania w celu wysyłania wielu monitów jednocześnie przy użyciu narzędzia PyRIT
Odcinek 10: Automatyzowanie ataków wieloetapowych — zaawansowane techniki automatyzacji rozmów wieloetapowych, w tym adwersaryjne konwersacje modelu i testowanie systemów generowania tekstu i obrazów
Czego się uczysz
Po ukończeniu tej serii szkoleniowej zrozumiesz:
- Podstawy czerwonych testów zespołów AI w porównaniu z tradycyjnymi metodami czerwonego zespołowania
- Podstawowe luki w zabezpieczeniach w systemach generatywnej sztucznej inteligencji, takie jak wstrzyknięcie monitu i niedopasowanie modelu
- Techniki ataków – od prostej manipulacji monitami do zaawansowanych wielozadaniowych strategii przeciwnych
- Strategie obrony, w tym sprawdzone techniki łagodzenia skutków, takie jak metody Spotlight firmy Microsoft
- Narzędzia automatyzacji do skalowania działań zespołu red team przy użyciu PyRIT i innych narzędzi open source
- Rzeczywiste aplikacje z praktycznymi laboratoriami i analizami przypadków z pracy produkcyjnej w zakresie zabezpieczeń sztucznej inteligencji firmy Microsoft