Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Importante
Algumas informações neste artigo estão relacionadas ao produto pré-lançado que pode ser modificado substancialmente antes de ser lançado comercialmente. A Microsoft não faz garantias, expressas ou implícitas, quanto às informações fornecidas aqui.
Microsoft Security Copilot (Security Copilot) é uma solução de segurança gerada com tecnologia de IA que ajuda a aumentar a eficiência e as capacidades dos defensores para melhorar os resultados de segurança à velocidade e dimensionamento da máquina. Security Copilot agentes utilizam IA para concluir tarefas de rotina e recolher informações com algum nível de autonomia para que possa concentrar-se no trabalho de alto valor. Pode criar agentes que adaptem e melhorem a experiência Security Copilot para satisfazer as necessidades empresariais exclusivas da sua organização.
O planeamento é um primeiro passo importante na conceção e criação dos agentes de segurança. A conceção de agentes de Security Copilot eficazes requer um planeamento ponderado, um desenvolvimento iterativo e um forte alinhamento com os princípios de IA responsáveis. Este guia serve para estruturar o seu processo de planeamento para criar agentes que compreendam o seu contexto empresarial exclusivo.
Quer esteja a conceber vários cenários ponto a ponto, como a resposta a incidentes, a investigação de ameaças, a recolha de informações, a gestão da postura e muito mais, seguem-se os princípios fundamentais para orientar o seu processo:
Definir um objetivo claro
Comece por articular a finalidade do agente:
- Declaração do Problema: Que desafio operacional ou de segurança específico está a resolver o agente? Por exemplo, um agente que monitoriza alertas de pontos finais e os melhora automaticamente com informações sobre ameaças para reduzir a carga de trabalho dos analistas.
- Utilizadores de Destino: são analistas do centro de operações de segurança (SOC), administradores de TI, Administração de Conformidade ou programadores? Vês, Security Copilot personas.
- Métricas de Êxito: defina resultados mensuráveis , por exemplo, tempo de triagem reduzido, precisão de deteção melhorada ou remediação automatizada.
Para obter orientações detalhadas sobre como escolher a experiência que melhor se adequa aos requisitos do agente, veja Agentes personalizados.
Identificar as capacidades necessárias
Divida as ferramentas de que o agente precisa para ter êxito:
- Cognitivo: classificar alertas, resumir incidentes, correlacionar sinais.
- Conversação: interpretar pedidos de utilizador, gerar explicações claras. Para obter fluxos de trabalho que exijam que os analistas interajam com um agente, veja Build Interactive agents (Criar agentes interativos).
- Operacional: acione fluxos de trabalho, chame APIs, obtenha registos ou documentos.
Utilize a ferramenta de Security Copilot (competência) para definir estas capacidades. As ferramentas podem ser reutilizadas ou compostas em agentes através do manifesto YAML. Para carregar uma ferramenta ou um plug-in, veja Criar manifesto do agente.
Compreender o contexto e o ecossistema exclusivos
Security Copilot agentes operam num ambiente seguro e extensível adaptado às necessidades específicas da sua organização:
- Origens de Dados: identifique os sistemas, alertas ou APIs a que o agente precisa de acesso (por exemplo, Microsoft Defender, Microsoft Sentinel, Microsoft Graph). Para obter integrações nestas origens, veja Plugins (Plug-ins).
- Segurança e Conformidade: determine o acesso dos utilizadores à plataforma Security Copilot através do Controle de Acesso Baseado em Funções (RBAC), da autenticação em nome de e coloque em camadas a cobertura de segurança com políticas de acesso condicional. Para obter mais informações, veja RBAC.
- Gestão de Estado: aplique feedback do agente através de memórias para manter informações relevantes nas sessões.
Priorizar IA Ética e Responsável
Security Copilot agentes têm de cumprir os princípios de IA responsáveis nas seguintes dimensões:
Transparência:
- Permitir que os utilizadores verifiquem as origens de informações.
- Comunique claramente os dados armazenados na memória e como são utilizados.
- Compreenda as limitações e capacidades do agente.
- Mostrar como as decisões foram tomadas (por exemplo, que ferramenta foi utilizada, que dados foram obtidos).
Expetativas Adequadas:
- Forneça uma lógica clara para as ações tomadas pelo agente.
- Defina o âmbito das capacidades de raciocínio do agente.
Impedir a Dependência Excedida:
- Certifique-se de que os utilizadores conseguem identificar erros na saída do agente.
- Incentive os utilizadores a validarem os resultados para fins de precisão.
- Opção para rejeitar resultados incorretos ou saídas enganosas.
Segurança e Privacidade:
- Mascarar dados confidenciais e respeitar os limites do inquilino.
- Certifique-se de que os agentes funcionam em conformidade com as políticas organizacionais, preservando a integridade dos dados.
- Imponha o acesso com privilégios mínimos aos sistemas de back-end.
Governação e Conformidade:
- Utilize convenções de nomenclatura e exclusões de responsabilidade para garantir a clareza e a conformidade.
Comentários:
- Permitir que os utilizadores forneçam feedback sobre a saída gerada.
- Utilize o feedback para identificar problemas e melhorar continuamente o desempenho e a fiabilidade do agente.