Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O plano do CSPM (Gerenciamento de Postura de Segurança de Nuvem do Defender) no Microsoft Defender para Nuvem protege ambientes de nuvem corporativa, multinuvem ou híbrida. Esses ambientes incluem Microsoft Azure, Amazon Web Services (AWS) e Google Cloud Platform (GCP) Vertex AI. O plano do Defender CSPM protege aplicativos de IA generativos e agentes de IA (versão prévia) durante todo o ciclo de vida.
O Defender para Nuvem reduz os riscos para cargas de trabalho de IA entre nuvens ao:
- Descobrir a Lista de Materiais de IA generativa (AI BOM), que inclui componentes de aplicativo, dados e artefatos de IA do código à nuvem.
- Fortalecendo a postura de segurança de aplicativos de IA generativa com recomendações internas e explorando e corrigindo riscos de segurança.
- Usando a análise do caminho de ataque para identificar e corrigir os riscos.
Importante
Para habilitar os recursos de gerenciamento da postura de segurança da IA em uma conta da AWS já existente:
- Já está conectada à sua conta do Azure.
- Já tem o GPSN do Defender habilitado.
- Já tem o tipo de permissões definido como Acesso com privilégios mínimos.
Você deve reconfigurar as permissões nesse conector para habilitar as permissões relevantes usando estas etapas:
- No portal do Azure, vá para a página Configurações do Ambiente e selecione o conector AWS apropriado.
- Selecione Configurar acesso.
- Certifique-se de que o tipo de permissões esteja definido como Acesso com privilégios mínimos.
- Siga as etapas 7 a 11 para concluir a configuração.
Descobrir aplicativos de IA generativa
O Defender para Nuvem descobre cargas de trabalho de IA e identifica os detalhes da lista de materiais de IA da sua organização. Essa visibilidade permite que você identifique e resolva vulnerabilidades e proteja aplicativos de IA generativa contra possíveis ameaças.
O Defender para Nuvem descobre de forma automática e contínua as cargas de trabalho de IA implantadas nos seguintes serviços:
- Serviço OpenAI do Azure
- Fundição de IA do Azure
- Azure Machine Learning
- Amazon Bedrock
- Google Vertex AI
O Defender para Nuvem também pode descobrir vulnerabilidades dentro de dependências de bibliotecas de IA generativa, como o TensorFlow, o PyTorch e o Langchain, verificando o código-fonte em busca de configurações incorretas de IaC (infraestrutura como código) e imagens de contêineres em busca de vulnerabilidades. Atualizar ou corrigir regularmente as bibliotecas pode impedir explorações, proteger aplicativos de IA generativa e manter a integridade deles.
Com esses recursos, o Defender para Nuvem fornece visibilidade total das cargas de trabalho de IA de código para nuvem.
Descobrir agentes de IA (versão prévia)
O Defender para Nuvem descobre cargas de trabalho do agente de IA e identifica detalhes do BOM de IA da sua organização. Essa visibilidade permite que você identifique e resolva vulnerabilidades e proteja aplicativos de agente de IA generativo contra possíveis ameaças.
Importante
No momento, esse recurso está em versão prévia e está incluído no Microsoft Defender para CSPM sem custo adicional. Os requisitos de licenciamento podem mudar quando o recurso estiver disponível ao público em geral. Se ocorrer uma alteração no preço, o recurso será desabilitado automaticamente e você receberá uma notificação. Para continuar usando o recurso, você pode precisar de uma nova licença para reativá-lo.
O Defender para Nuvem descobre automaticamente e continuamente agentes de IA implantados nos seguintes serviços:
- Agentes de IA do Azure Foundry (requer acesso ao Defender para Nuvem com o plano do Defender CSPM habilitado)
- Agentes de IA do Copilot Studio (requer uma licença do Microsoft Defender para Aplicativos de Nuvem )
Quando você habilita o plano do Defender CSPM em sua assinatura do Azure, o portal descobre e inventaria automaticamente agentes de IA implantados com o Azure AI Foundry e preenche o inventário de IA com a lista de agentes de IA descobertos.
Observação
Para exibir recursos de visualização no portal do Defender, você precisa habilitar os recursos de visualização do Microsoft Defender para Nuvem no portal do Defender.
Saiba como proteger seus agentes de IA (versão prévia).
Reduzir os riscos para aplicativos de IA generativos
O GPSN do Defender fornece insights contextuais sobre a postura de segurança de IA de sua organização. Você pode reduzir os riscos em suas cargas de trabalho de IA usando recomendações de segurança e análise de caminho de ataque.
Explorar riscos usando recomendações
O Defender para Nuvem avalia cargas de trabalho de IA. Ele emite recomendações sobre identidade, segurança de dados e exposição à Internet para ajudá-lo a identificar e priorizar problemas críticos de segurança.
Detectar configurações incorretas de IaC
A segurança do DevOps detecta configurações incorretas de IaC, que podem expor aplicativos de IA generativos a vulnerabilidades de segurança, como controles de acesso superexpostos ou serviços expostos publicamente inadvertidamente. Essas configurações incorretas podem resultar em violações de dados, acesso não autorizado e problemas de conformidade, especialmente ao lidar com regulamentações rígidas de privacidade de dados.
O Defender para Nuvem avalia sua configuração de aplicativos de IA generativos e fornece recomendações de segurança para melhorar sua postura de segurança de IA.
Para evitar problemas complexos mais tarde, corrija as configurações incorretas detectadas no início do ciclo de desenvolvimento.
As verificações atuais de segurança de IA para a IaC incluem:
- Usar os pontos de extremidade privados de serviço da IA do Azure
- Restringir os pontos de extremidade de serviço da IA do Azure
- Usar a identidade gerenciada para contas de serviço da IA do Azure
- Usar a autenticação baseada em identidade para contas de serviço da IA do Azure
Explorar riscos com a análise do caminho de ataque
A análise do caminho de ataque detecta e reduz os riscos para cargas de trabalho de IA. Os dados podem ser expostos durante a adaptação de modelos de IA a dados específicos e o ajuste fino de um modelo pré-treinado em um conjunto de dados específico para melhorar seu desempenho em uma tarefa relacionada.
Ao monitorar continuamente as cargas de trabalho de IA, a análise do caminho de ataque pode identificar pontos fracos e possíveis vulnerabilidades e acompanhar as recomendações. Além disso, ela se estende a casos em que os dados e os recursos de computação são distribuídos no Azure, na AWS e no GCP.