Partilhar via


Proteger os agentes de IA (Pré-visualização)

À medida que as organizações adotam agentes de IA para simplificar as operações e melhorar a produtividade, também enfrentam novos riscos de segurança que estas ferramentas podem introduzir.

Sem uma forte visibilidade e controlos, os agentes de IA configurados incorretamente podem expor dados confidenciais, ativar o acesso não autorizado, escalar privilégios e acionar ações não intencionais que enfraquecem a postura de segurança da sua organização.

Para fornecer proteção contra ameaças abrangente, incluímos a gestão de ambas as posturas para minimizar o cenário de ameaças de ataques, ao mesmo tempo que operamos sob o pressuposto de que pode ocorrer uma falha de segurança.

Funcionalidades de proteção do agente de IA

Microsoft Defender protege contra ameaças de segurança com proteção abrangente contra agentes de IA, oferecendo gestão de exposição proativa e investigação avançada de ameaças com estas funcionalidades:

  • Deteta todos os agentes de IA criados com Microsoft Copilot Studio ou Azure AI Foundry.
  • Recolhe registos de auditoria para os agentes de IA, monitoriza continuamente os agentes para atividades suspeitas e ativa deteções e alertas. Para ativar esta monitorização, certifique-se de que:
  • Para Copilot Studio agentes de IA, Microsoft Defender:
    • Integra dados de Copilot Studio agentes de IA na investigação avançada para deteção proativa de ameaças. Pode utilizar estes dados para criar consultas personalizadas e investigar potenciais ameaças.
    • Protege o seu ambiente em tempo real para bloquear ações suspeitas ou nocivas iniciadas pelos agentes de IA Copilot Studio durante o runtime do agente e aciona um alerta informativo integrado no ambiente de alertas e incidentes XDR.
  • Para Azure agentes do AI Foundry AI, Microsoft Defender:
    • Monitoriza os agentes de IA quanto a configurações incorretas e vulnerabilidades e identifica potenciais caminhos de ataque.
    • Fornece recomendações de segurança para melhorar a postura de segurança dos agentes de IA.

Pré-requisitos

Para ativar o inventário e a deteção do agente de IA, tem de optar ativamente por participar nas funcionalidades de pré-visualização Microsoft Defender de:

  • Microsoft Defender for Cloud Apps
  • Microsoft Defender para a Cloud
  • Microsoft Defender XDR

Detetar os agentes de IA com o inventário do agente de IA no portal do Defender (Pré-visualização)

Microsoft Defender deteta todos os agentes de IA criados com Microsoft Copilot Studio e Azure AI Foundry. Este inventário ajuda as equipas de segurança a detetar, catalogar e monitorizar continuamente agentes de IA em toda a sua organização.

A página de inventário do agente de IA

A página de inventário do agente de IA no Microsoft Defender fornece uma vista centralizada de todos os agentes de IA detetados, juntamente com os atributos principais e o estado de segurança.

  1. Inicie sessão no portal Microsoft Defender.

  2. No painel de navegação esquerdo, selecioneAgentes de IA de Recursos>.

    É apresentada uma lista de todos os agentes de IA detetados.

    Captura de ecrã a mostrar o inventário do agente de IA no portal do Defender.

  3. Selecione Copilot Studio ou Azure AI Foundry para ver uma lista filtrada de agentes de IA com base na ferramenta utilizada para criar o agente.

  4. Para ver informações detalhadas sobre um agente de IA específico, selecione o agente na lista.

Detalhes do agente de IA

Quando seleciona um agente de IA no inventário, o painel Agente é aberto, fornecendo informações detalhadas sobre o agente selecionado. As informações apresentadas variam consoante o agente tenha sido criado no Azure AI Foundry ou Copilot Studio.

-- Selecione Abrir página do agente para abrir a página Agente de IA.

Captura de ecrã que mostra os detalhes dos agentes de IA do Foundry no portal do Defender.

Estes detalhes do agente de IA são apresentados:

Informações do Agente de IA Descrição
ID Identificador exclusivo do agente atribuído ao mesmo no Azure AI Foundry
Name Nome a apresentar do agente
Conta A conta ou inquilino ao abrigo do qual o agente de IA opera, normalmente ligado à propriedade organizacional.
Implementação Detalhes sobre onde e como o agente de IA é implementado (por exemplo, ambiente na cloud, no local, híbrido).
Caminhos de ataque Potenciais rotas ou métodos que podem ser explorados para comprometer o agente de IA ou o respetivo ambiente.
Fatores de risco Principais vulnerabilidades ou condições que aumentam a probabilidade de ameaças de segurança ao agente de IA.
Hora de criação Data e hora em que o agente foi criado
Project O projeto ou iniciativa associado ao qual o agente de IA suporta ou pertence.
Modelo O modelo de IA/ML subjacente que alimenta o agente, incluindo os detalhes da versão ou da arquitetura.
Recomendações Sugestões de ações ou melhores práticas para melhorar a segurança, o desempenho ou a conformidade do agente de IA.

Consulte também