Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
La série de formation AI Red Teaming 101 de Microsoft aide les professionnels à sécuriser les systèmes d’INTELLIGENCE artificielle générative contre les menaces émergentes. Cette série explore les vulnérabilités, les techniques d’attaque et les stratégies de défense, en fournissant des insights exploitables et une expérience pratique. Que vous soyez expert en sécurité, ingénieur machine learning ou chef d’entreprise, vous obtiendrez des connaissances pratiques par le biais d’études de cas réelles, d’épisodes modulaires et d’outils de test automatisés. Explorez des sujets tels que les attaques par injection d’invite, les techniques contradictoires multitours et les méthodes de défense évolutives pour améliorer votre expertise en matière de sécurité de l’IA.
Pourquoi regarder cette série d’entraînement
Obtenez des conseils actionnables pour vous aider à identifier, exploiter et défendre contre les vulnérabilités critiques dans les systèmes d’INTELLIGENCE artificielle générative. Découvrez les meilleures pratiques, les techniques et les directives basées sur des leçons tirées de l'expérience réelle de l'AI Red Team de Microsoft.
Qui devrait regarder cette série de formation
La série de formation est utile pour les équipes de sécurité, les ingénieurs ML, les praticiens de l’IA et les chefs d’entreprise travaillant avec l’IA. Il se concentre principalement sur :
- Professionnels de la sécurité : découvrez les vecteurs d’attaque spécifiques à l’IA et les stratégies de défense.
- Professionnels du ML et ingénieurs IA : ajoutez des tests de sécurité aux flux de travail de développement IA.
- Architectes d’entreprise et de sécurité : créez des systèmes IA sécurisés et explorez les menaces émergentes.
Conseil / Astuce
Les vidéos AI Red Teaming 101 sont modulaires, ce qui vous permet de passer à n’importe quelle section d’intérêt ou de commencer au début et de les regarder tous. Téléchargez les diapositives et suivez votre propre rythme.
Nouveautés de la série de formation
La série de formation fournit des conseils sur la compréhension des vulnérabilités d’IA génératives, l’exécution de techniques d’attaque et l’implémentation de mesures défensives. L’atelier comprend des démonstrations pratiques, des études de cas réelles et des outils de test automatisés basés sur les pratiques de sécurité de l’IA de production de Microsoft.
Conseil / Astuce
Tous les épisodes incluent des démonstrations pratiques et l’accès aux laboratoires de red teaming de Microsoft pour acquérir une expérience pratique.
Introduction et notions de base
Épisode 1 : Qu’est-ce que l’AI red teaming ? - Présentation des principes fondamentaux de l’équipe rouge de l’IA, des risques clés dans l’IA générative et la mission de l’équipe rouge d’IA de Microsoft
Épisode 2 : Fonctionnement des modèles IA génératifs - Présentation de l’architecture des modèles, des étapes d’entraînement et des raisons pour lesquelles ces modèles créent des risques de sécurité uniques
Partie A - Techniques d’attaque principales
Épisode 3 : Explication de l'injection directe de prompt - Comment les attaquants manipulent le comportement du modèle en injectant des instructions malveillantes, incluant des études de cas réelles comme l'attaque du chatbot SUV à 1$
Épisode 4 : Injection d’invite indirecte expliquée - Attaques furtives où des instructions malveillantes sont masquées dans des sources de données externes telles que des e-mails, des sites web ou des bases de données
Épisode 5 : attaques Single-Turn - Techniques d’ingénierie d’invite avancées, notamment le piratage de persona, la manipulation émotionnelle et l’évasion de filtre avec des astuces d’encodage
Épisode 6 : Attaques multi-étapes - techniques telles que Skeleton Key et Crescendo qui orientent progressivement les modèles vers le contournement des protections de sécurité
Partie B - Défense et atténuation
Épisode 7 : Défense contre les attaques - Stratégies d’atténuation et techniques de garde-fou, y compris les méthodes de défense à la pointe de Microsoft (limitation, marquage des données et encodage)
Partie C - Automatisation et mise à l’échelle
Épisode 8 : Automatisation des tests en équipe rouge de l'IA avec PyRIT - Présentation de l'outil open source de Microsoft pour l'automatisation et la mise à l'échelle des tests contradictoires des systèmes d'intelligence artificielle générative, le Python Risk Identification Tool (PyRIT)
Épisode 9 : Automatisation des attaques Single-Turn - Démonstration pratique de la configuration des jeux de données, des cibles et de la logique de scoring pour envoyer plusieurs invites à la fois à l’aide de PyRIT
Épisode 10 : Automatisation des attaques multitours - Techniques d’automatisation avancées pour les conversations multitours, notamment les conversations de modèle adversaire et le test des systèmes de génération de texte et d’image
Contenu
Une fois cette série d’entraînement terminée, vous comprendrez :
- Principes fondamentaux du red teaming IA par rapport aux approches traditionnelles de red teaming
- Vulnérabilités principales dans les systèmes IA génératifs, telles que l’injection de requêtes et le mauvais alignement du modèle
- Techniques d’attaque, de la manipulation rapide simple à des stratégies contradictoires sophistiquées
- Stratégies de défense, y compris les techniques d’atténuation éprouvées telles que les méthodes Spotlighting de Microsoft
- Outils d'automatisation pour l'extension des efforts de red teaming à l'aide de PyRIT et d'autres outils open source
- Applications réelles avec des laboratoires pratiques et des études de cas des travaux de sécurité IA de production chez Microsoft