Compartilhar via


guia de planeamento de desenvolvimento do agente Security Copilot

Importante

Algumas informações neste artigo estão relacionadas ao produto pré-lançado que pode ser modificado substancialmente antes de ser lançado comercialmente. A Microsoft não faz garantias, expressas ou implícitas, quanto às informações fornecidas aqui.

Microsoft Security Copilot (Security Copilot) é uma solução de segurança gerada com tecnologia de IA que ajuda a aumentar a eficiência e as capacidades dos defensores para melhorar os resultados de segurança à velocidade e dimensionamento da máquina. Security Copilot agentes utilizam IA para concluir tarefas de rotina e recolher informações com algum nível de autonomia para que possa concentrar-se no trabalho de alto valor. Pode criar agentes que adaptem e melhorem a experiência Security Copilot para satisfazer as necessidades empresariais exclusivas da sua organização.

O planeamento é um primeiro passo importante na conceção e criação dos agentes de segurança. A conceção de agentes de Security Copilot eficazes requer um planeamento ponderado, um desenvolvimento iterativo e um forte alinhamento com os princípios de IA responsáveis. Este guia serve para estruturar o seu processo de planeamento para criar agentes que compreendam o seu contexto empresarial exclusivo.

Quer esteja a conceber vários cenários ponto a ponto, como a resposta a incidentes, a investigação de ameaças, a recolha de informações, a gestão da postura e muito mais, seguem-se os princípios fundamentais para orientar o seu processo:

Definir um objetivo claro

Comece por articular a finalidade do agente:

  • Declaração do Problema: Que desafio operacional ou de segurança específico está a resolver o agente? Por exemplo, um agente que monitoriza alertas de pontos finais e os melhora automaticamente com informações sobre ameaças para reduzir a carga de trabalho dos analistas.
  • Utilizadores de Destino: são analistas do centro de operações de segurança (SOC), administradores de TI, Administração de Conformidade ou programadores? Vês, Security Copilot personas.
  • Métricas de Êxito: defina resultados mensuráveis , por exemplo, tempo de triagem reduzido, precisão de deteção melhorada ou remediação automatizada.

Para obter orientações detalhadas sobre como escolher a experiência que melhor se adequa aos requisitos do agente, veja Agentes personalizados.

Identificar as capacidades necessárias

Divida as ferramentas de que o agente precisa para ter êxito:

  • Cognitivo: classificar alertas, resumir incidentes, correlacionar sinais.
  • Conversação: interpretar pedidos de utilizador, gerar explicações claras. Para obter fluxos de trabalho que exijam que os analistas interajam com um agente, veja Build Interactive agents (Criar agentes interativos).
  • Operacional: acione fluxos de trabalho, chame APIs, obtenha registos ou documentos.

Utilize a ferramenta de Security Copilot (competência) para definir estas capacidades. As ferramentas podem ser reutilizadas ou compostas em agentes através do manifesto YAML. Para carregar uma ferramenta ou um plug-in, veja Criar manifesto do agente.

Compreender o contexto e o ecossistema exclusivos

Security Copilot agentes operam num ambiente seguro e extensível adaptado às necessidades específicas da sua organização:

  • Origens de Dados: identifique os sistemas, alertas ou APIs a que o agente precisa de acesso (por exemplo, Microsoft Defender, Microsoft Sentinel, Microsoft Graph). Para obter integrações nestas origens, veja Plugins (Plug-ins).
  • Segurança e Conformidade: determine o acesso dos utilizadores à plataforma Security Copilot através do Controle de Acesso Baseado em Funções (RBAC), da autenticação em nome de e coloque em camadas a cobertura de segurança com políticas de acesso condicional. Para obter mais informações, veja RBAC.
  • Gestão de Estado: aplique feedback do agente através de memórias para manter informações relevantes nas sessões.

Priorizar IA Ética e Responsável

Security Copilot agentes têm de cumprir os princípios de IA responsáveis nas seguintes dimensões:

  1. Transparência:

    • Permitir que os utilizadores verifiquem as origens de informações.
    • Comunique claramente os dados armazenados na memória e como são utilizados.
    • Compreenda as limitações e capacidades do agente.
    • Mostrar como as decisões foram tomadas (por exemplo, que ferramenta foi utilizada, que dados foram obtidos).
  2. Expetativas Adequadas:

    • Forneça uma lógica clara para as ações tomadas pelo agente.
    • Defina o âmbito das capacidades de raciocínio do agente.
  3. Impedir a Dependência Excedida:

    • Certifique-se de que os utilizadores conseguem identificar erros na saída do agente.
    • Incentive os utilizadores a validarem os resultados para fins de precisão.
    • Opção para rejeitar resultados incorretos ou saídas enganosas.
  4. Segurança e Privacidade:

    • Mascarar dados confidenciais e respeitar os limites do inquilino.
    • Certifique-se de que os agentes funcionam em conformidade com as políticas organizacionais, preservando a integridade dos dados.
    • Imponha o acesso com privilégios mínimos aos sistemas de back-end.
  5. Governação e Conformidade:

    • Utilize convenções de nomenclatura e exclusões de responsabilidade para garantir a clareza e a conformidade.
  6. Comentários:

    • Permitir que os utilizadores forneçam feedback sobre a saída gerada.
    • Utilize o feedback para identificar problemas e melhorar continuamente o desempenho e a fiabilidade do agente.

Próximas etapas

Confira também