Compartir a través de


guía de planeamiento del desarrollo de agentes de Security Copilot

Importante

Parte de la información contenida en este artículo se refiere a un producto preliminar que puede sufrir modificaciones sustanciales antes de su lanzamiento comercial. Microsoft no otorga garantías, expresas o implícitas, con respecto a la información que aquí se proporciona.

Microsoft Security Copilot (Security Copilot) es una solución de seguridad generativa con tecnología de inteligencia artificial que ayuda a aumentar la eficacia y las capacidades de los defensores para mejorar los resultados de seguridad a velocidad y escala de la máquina. Security Copilot agentes usan la inteligencia artificial para completar tareas rutinarias y recopilar información con cierto nivel de autonomía para que pueda centrarse en el trabajo de alto valor. Puede crear agentes que adapten y mejoren la experiencia de Security Copilot para satisfacer las necesidades empresariales únicas de su organización.

El planeamiento es un primer paso importante para diseñar y compilar los agentes de seguridad. El diseño de agentes de Security Copilot eficaces requiere una planificación cuidadosa, un desarrollo iterativo y una fuerte alineación con los principios de inteligencia artificial responsables. Esta guía sirve para estructurar el proceso de planeamiento para crear agentes que comprendan el contexto empresarial único.

Tanto si está diseñando varios escenarios de un extremo a otro, como la respuesta a incidentes, la búsqueda de amenazas, la recopilación de inteligencia, la administración de posturas, etc., estos son los principios básicos para guiar el proceso:

Definir un objetivo claro

Empiece por articular el propósito del agente:

  • Declaración de problemas: ¿Qué desafío operativo o de seguridad específico es la resolución del agente? Por ejemplo, un agente que supervisa las alertas de punto de conexión y las enriquece automáticamente con inteligencia sobre amenazas para reducir la carga de trabajo de los analistas.
  • Usuarios de destino: ¿son analistas del Centro de operaciones de seguridad (SOC), administradores de TI, Administración de cumplimiento o desarrolladores? Mira, Security Copilot personas.
  • Métricas de éxito: defina resultados medibles, por ejemplo, un tiempo de evaluación reducido, una mayor precisión de detección o una corrección automatizada.

Para obtener instrucciones detalladas sobre cómo elegir la experiencia que mejor se adapte a los requisitos del agente, consulte Agentes personalizados.

Identificación de las funcionalidades necesarias

Desglose de las herramientas que el agente necesita para que se realicen correctamente:

  • Cognitive: clasificación de alertas, resumen de incidentes y correlación de señales.
  • Conversacional: interprete las indicaciones del usuario y genere explicaciones claras. Para ver los flujos de trabajo que requieren que los analistas interactúen con un agente, consulte Compilación de agentes interactivos.
  • Operativo: desencadene flujos de trabajo, llame a las API, recupere registros o documentos.

Use la herramienta Security Copilot (aptitud) para definir estas funcionalidades. Las herramientas se pueden reutilizar o componer en agentes mediante el manifiesto YAML. Para cargar una herramienta o un complemento, consulte Compilación del manifiesto del agente.

Descripción de su contexto y ecosistema únicos

Security Copilot agentes operan dentro de un entorno seguro y extensible adaptado a las necesidades específicas de su organización:

  • Orígenes de datos: identifique los sistemas, alertas o API a los que el agente necesita acceso (por ejemplo, Microsoft Defender, Microsoft Sentinel, Microsoft Graph). Para obtener integraciones con estos orígenes, consulte Complementos.
  • Seguridad y cumplimiento: determine el acceso de los usuarios a la plataforma de Security Copilot a través de la Access Control basada en roles (RBAC), la autenticación en nombre de y capa la cobertura de seguridad con directivas de acceso condicional. Para obtener más información, consulte RBAC.
  • Administración de estado: aplique los comentarios del agente a través de memorias para conservar la información pertinente entre sesiones.

Priorizar la inteligencia artificial ética y responsable

Security Copilot agentes deben cumplir los principios de inteligencia artificial responsable en las siguientes dimensiones:

  1. Transparencia:

    • Permitir que los usuarios comprueben los orígenes de información.
    • Comunique claramente qué datos se almacenan en la memoria y cómo se usan.
    • Comprenda las limitaciones y funcionalidades del agente.
    • Mostrar cómo se tomaron las decisiones (por ejemplo, qué herramienta se usó, qué datos se recuperaron).
  2. Expectativas adecuadas:

    • Proporcione una justificación clara para las acciones realizadas por el agente.
    • Defina el ámbito de las capacidades de razonamiento del agente.
  3. Evitar la dependencia excesiva:

    • Asegúrese de que los usuarios puedan identificar errores en la salida del agente.
    • Anime a los usuarios a validar los resultados para obtener precisión.
    • Opción para rechazar resultados incorrectos o salidas engañosas.
  4. Seguridad y privacidad:

    • Enmascarar los datos confidenciales y respetar los límites del inquilino.
    • Asegúrese de que los agentes funcionan en consonancia con las directivas de la organización y conservando la integridad de los datos.
    • Exigir el acceso con privilegios mínimos a los sistemas back-end.
  5. Gobernanza y cumplimiento:

    • Use convenciones de nomenclatura y declinaciones de responsabilidades para garantizar la claridad y el cumplimiento.
  6. Comentarios:

    • Permitir que los usuarios proporcionen comentarios sobre la salida generada.
    • Use los comentarios para identificar problemas y mejorar continuamente el rendimiento y la confiabilidad del agente.

Pasos siguientes

Vea también