Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
A série de treinamento AI Red Teaming 101 da Microsoft ajuda os profissionais a proteger sistemas de IA generativa contra ameaças emergentes. Esta série mergulha em vulnerabilidades, técnicas de ataque e estratégias de defesa, fornecendo insights acionáveis e experiência prática. Quer seja um especialista em segurança, engenheiro de aprendizagem automática ou líder de negócios, obterá conhecimento prático através de estudos de caso do mundo real, episódios modulares e ferramentas de teste automatizadas. Explore tópicos como ataques de injeção imediata, técnicas de contraditório em várias voltas e métodos de defesa escaláveis para aprimorar sua experiência em segurança de IA.
Porquê ver esta série de formação
Obtenha conselhos práticos para ajudar a identificar, explorar e defender contra vulnerabilidades críticas em sistemas de IA generativa. Aprenda práticas recomendadas, técnicas e orientações com base em lições do mundo real da Equipe Vermelha de IA da Microsoft.
Quem deve assistir a esta série de treinamentos
A série de treinamento é útil para equipes de segurança, engenheiros de ML, profissionais de IA e líderes de negócios que trabalham com IA. Centra-se principalmente em:
- Profissionais de segurança: saiba mais sobre vetores de ataque específicos de IA e estratégias de defesa.
- Profissionais de ML e engenheiros de IA: adicione testes de segurança aos fluxos de trabalho de desenvolvimento de IA.
- Arquitetos empresariais e de segurança: crie sistemas de IA seguros e explore ameaças emergentes.
Sugestão
Os vídeos do AI Red Teaming 101 são modulares, então você pode saltar para qualquer seção de interesse ou começar no início e assistir a todos eles. Descarregue os diapositivos e siga ao seu próprio ritmo.
Qual é o conteúdo da série de formação
A série de treinamento fornece orientações sobre como entender vulnerabilidades generativas de IA, executar técnicas de ataque e implementar medidas defensivas. O workshop inclui demonstrações práticas, estudos de caso do mundo real e ferramentas de teste automatizadas baseadas nas práticas de segurança de IA de produção da Microsoft.
Sugestão
Todos os episódios incluem demonstrações práticas e acesso aos laboratórios de red team da Microsoft para adquirir experiência prática.
Introdução e Fundamentos
Episódio 1: O que é AI red teaming? - Introdução aos fundamentos do red teaming de IA, principais riscos da IA generativa e a missão do red team de IA da Microsoft
Episódio 2: Como funcionam os modelos generativos de IA - Entendendo a arquitetura do modelo, os estágios de treinamento e por que esses modelos criam riscos de segurança exclusivos
Parte A - Técnicas de Ataque Principais
Episódio 3: Injeção direta de prompt explicada - Como os invasores manipulam o comportamento do modelo injetando instruções maliciosas, incluindo estudos de caso do mundo real, como o ataque de chatbot SUV de US$ 1
Episódio 4: Injeção Imediata Indireta Explicada - Ataques furtivos onde instruções maliciosas estão ocultas em fontes de dados externas, como e-mails, sites ou bancos de dados
Episódio 5: Single-Turn Attacks - Técnicas avançadas de engenharia rápida, incluindo hacking de persona, manipulação emocional e evasão de filtros com truques de codificação
Episódio 6: Multi-Turn Attacks - técnicas como Skeleton Key e Crescendo que gradualmente orientam os modelos a ultrapassar as proteções de segurança.
Parte B - Defesa e Mitigação
Episódio 7: Defesa contra ataques - Estratégias de mitigação e técnicas de guardrail, incluindo os métodos de defesa de destaque da Microsoft (delimitação, marcação de dados e codificação)
Parte C - Automação e Escala
Episódio 8: Automatizando o red teaming de IA com o PyRIT - Introdução à ferramenta de código aberto da Microsoft para automatizar e dimensionar testes adversariais de sistemas de IA generativos, a Python Risk Identification Tool (PyRIT)
Episódio 9: Automatizando ataques de Single-Turn - Demonstração prática da configuração de conjuntos de dados, alvos e lógica de pontuação para enviar muitos prompts de uma só vez usando o PyRIT
Episódio 10: Automatizando ataques multiturnos - Técnicas avançadas de automação para conversas multiturno, incluindo conversas de modelo adversarial e teste de sistemas de geração de texto e imagem
O que você aprende
Depois de concluir esta série de treinamento, você entenderá:
- Fundamentos das estratégias de red teaming de IA versus metodologias tradicionais de red teaming
- Principais vulnerabilidades em sistemas de IA generativa, como injeção imediata e desalinhamento de modelos
- Técnicas de ataque, desde simples manipulação rápida até sofisticadas estratégias adversárias multi-turno
- Estratégias de defesa, incluindo técnicas de mitigação comprovadas, como os métodos Spotlighting da Microsoft
- Ferramentas de automação para expandir os esforços de Red Teaming usando PyRIT e outras soluções de código aberto.
- Aplicações do mundo real com laboratórios práticos e estudos de caso do trabalho em segurança de IA na produção da Microsoft