Saltar para o conteúdo principal

Este navegador já não é suportado.

Atualize para o Microsoft Edge para tirar partido das funcionalidades mais recentes, atualizações de segurança e suporte técnico.

Descarregar o Microsoft Edge Mais informações sobre Internet Explorer e Microsoft Edge
Leia em inglês

Partilhar via

Facebook x.com LinkedIn Email

Equipe Microsoft AI Red

Aprenda a proteger a IA da sua organização com orientações e práticas recomendadas da Microsoft AI Red Team, líder do setor.

Sobre a AI Red Team

Descrição geral

  • O que é o AI Red teaming e como a Microsoft está construindo uma IA mais segura?

Manual de Instruções

  • Guia para criar equipes vermelhas de IA para LLMs

Referência

  • Ferramentas e práticas de IA responsável
  • Norma de IA responsável e avaliação de impacto

Preparação

Descrição geral

  • Estrutura de automação aberta da Microsoft para Red Team Generative AI Systems (PyRIT)

Manual de Instruções

  • PyRIT Como Guia

Referência

  • Avaliação de risco de IA para engenheiros de ML
  • Modelo de responsabilidade compartilhada de IA

Compreender as ameaças

Manual de Instruções

  • Orientação de modelagem de ameaças do desenvolvedor para sistemas de ML

Conceito

  • Taxonomia para falha de aprendizado de máquina

Referência

  • Bug Bar para triagem de ataques em sistemas de ML

Explorar soluções seguras

Conceito

  • Metodologia para o alinhamento de segurança da série Phi-3 de modelos linguísticos

Referência

  • Segurança e governação empresariais para o Azure Machine Learning
  • O que é a Segurança de Conteúdo do Azure AI?
  • Estratégias de mitigação de danos com a IA do Azure
  • Monitore a qualidade e a segurança dos aplicativos de fluxo rápido implantados

Ensinamentos retirados

Formação

  • Treinamento de segurança de IA

Descrição geral

  • Lições do red teaming 100 produtos de IA generativa
pt-pt
As Suas Escolhas de Privacidade
  • Aviso sobre IA
  • Versões Anteriores
  • Blog
  • Contribui
  • Privacidade
  • Termos de Utilização
  • Marcas registadas
  • © Microsoft 2025