Compartir a través de


Microsoft Security Copilot preguntas más frecuentes

Información general

¿Qué es Seguridad de Microsoft Copilot?

Microsoft Security Copilot es una asistente generativa con tecnología de inteligencia artificial para la seguridad y la TI. Proporciona información y recomendaciones personalizadas mediante inteligencia global sobre amenazas, procedimientos recomendados del sector y datos de organizaciones de Microsoft y herramientas de asociados. Teams también puede automatizar los flujos de trabajo con agentes de Security Copilot autónomos, acelerar las respuestas, priorizar los riesgos y reducir las cargas de trabajo manuales, todo ello a la vez que permanece firmemente en el control.

¿Cuáles son los casos de uso y las funcionalidades que Security Copilot desbloquea para los clientes?

Security Copilot se centra en facilitar la realización de los siguientes casos de uso.

  • Investigación y corrección de amenazas de seguridad
  • Creación de consultas de KQL y análisis de scripts sospechosos
  • Descripción de los riesgos y administración de la posición de seguridad de la organización
  • Solución de problemas de TI más rápido
  • Definición y administración de directivas de seguridad
  • Configuración de flujos de trabajo de ciclo de vida seguros
  • Desarrollo de informes para las partes interesadas
  • Automatización de tareas con agentes autónomos

Visite el centro de adopción de Security Copilot para profundizar en cómo Security Copilot beneficia a roles como los CISO, los analistas de inteligencia sobre amenazas, los administradores de TI, los administradores de seguridad de datos y mucho más.

¿Microsoft Security Copilot funciona con otros productos de Microsoft?

Sí. Security Copilot se integra e inserta en otros productos de seguridad de Microsoft. Estos productos incluyen, pero no se limitan a:

  • Azure Firewall
  • Microsoft Defender Administración de superficie expuesta a ataques
  • Microsoft Defender for Cloud
  • Inteligencia contra amenazas de Microsoft Defender
  • Microsoft Defender XDR
  • Microsoft Intune
  • Microsoft Purview,
  • Microsoft Sentinel

Security Copilot puede acceder a los datos de estos productos y proporcionar asistencia genAI y automatización de agentes para aumentar la eficacia y eficacia de los profesionales de seguridad que usan esas soluciones.

¿Security Copilot incluye acceso a Inteligencia contra amenazas de Microsoft Defender (TI de Defender)?

Sí*. Cuando se le solicite, Security Copilot razones sobre todo el contenido y los datos de Inteligencia contra amenazas de Microsoft Defender (TI de Defender) para devolver un contexto crucial en torno a los grupos de actividad, las herramientas y las vulnerabilidades. Los clientes también tienen acceso al área de trabajo premium de Defender TI de nivel de inquilino, lo que les permite acceder a toda la amplitud de inteligencia de Defender TI (perfiles intel, análisis de amenazas, conjuntos de datos de Internet, etc.) para profundizar en el contenido que se expone en Security Copilot.

*Este acceso no incluye la API de TI de Defender, que permanece con licencia por separado.

¿Quiénes son los usuarios previstos de Security Copilot?

Los analistas de SOC, los analistas de cumplimiento, los administradores de TI, los administradores de seguridad de datos, los administradores de identidades y los CISO son algunos de los usuarios previstos de Security Copilot. Visite el centro de adopción de Security Copilot para obtener información sobre los escenarios clave.

¿Qué idiomas se admiten?

Security Copilot admite varios idiomas. El modelo está disponible en ocho idiomas* y la experiencia del usuario está disponible en 25 idiomas.**

*Modelo: inglés, alemán, japonés, español, francés, italiano, portugués y chino

**Experiencia de usuario: por encima de los idiomas más coreano, holandés, sueco, polaco, noruego, turco, danés, finlandés y mucho más en la experiencia del usuario.

Para obtener más información, consulte Idiomas admitidos.

¿Cuál es la diferencia entre Security Copilot y LLM genérico?

Un LLM genérico carece de ventajas clave como:

  • Procesamiento de señales en tiempo real con datos de registro estructurados, para detectar y analizar amenazas a medida que se producen en lugar de después del hecho.
  • Razonamiento de investigación para rastrear el origen y el impacto de los incidentes. La inteligencia artificial debe pivotar en muchos puntos de datos, al igual que lo harían los analistas humanos, y ajustar las conclusiones a medida que surja nueva información.
  • Precisión con pruebas para garantizar que la inteligencia artificial sea precisa y esté respaldada por datos confiables.
  • Recopilación de datos persistente para mantener una vista continua y completa.

Sin estas funcionalidades y una comprensión profunda del entorno de seguridad específico, un modelo genérico simplemente no puede proporcionar la profundidad de análisis necesaria.

Microsoft está en una posición única para abordar los desafíos del uso de la inteligencia artificial en la seguridad: nuestra solución se basa en los modelos más avanzados disponibles y se basa en:

  • Una infraestructura de hiperescala que proporciona la escalabilidad y la infraestructura necesarias para procesar volúmenes masivos de datos en tiempo real.
  • Orquestador específico de la seguridad que simplifica, contextualiza y coordina las respuestas entre herramientas y equipos.
  • Integración perfecta a través de complementos, conexión de los sistemas existentes y ampliación de lo que nuestra solución puede hacer.
  • Inteligencia de amenazas perenne, informada por 84 billones de señales diarias, para una visibilidad sin igual en todo el panorama de amenazas.
  • Formación de aptitudes cibernéticas y cuadernos de avisos integrados para capacitar a los equipos con los conocimientos y los recursos que necesitan.

Al basar todos estos componentes, proporcionamos una solución de seguridad de inteligencia artificial que comprende el entorno de seguridad, proporciona información en lenguaje natural y controla los datos confidenciales de forma segura.

Información de compra y facturación

¿Hay algún requisito previo para comprar?

Una suscripción de Azure y Microsoft Entra ID (anteriormente conocido como Azure Active Directory) son requisitos previos para usar Security Copilot; no hay otros requisitos previos del producto. Para obtener más información, consulte Introducción a Security Copilot.

¿Se implementa Microsoft Entra ID (anteriormente conocido como Azure Active Directory) un requisito para Security Copilot?

Sí. Security Copilot es una aplicación SaaS y requiere Microsoft Entra ID para autenticar a los usuarios que tienen acceso.

¿Cómo se Security Copilot precio?

Security Copilot tiene un precio basado en unidades de proceso de seguridad (SCU).

  • Las SCU aprovisionadas admiten cargas de trabajo normales y se facturan mensualmente.
  • Las SCU de uso superior ofrecen una capacidad flexible a petición y solo se facturan cuando se usan.

Use el panel del producto para supervisar el uso de SCU y ajustar la capacidad según sea necesario.

Para obtener más información, consulte Microsoft Security Copilot - Precios

¿Security Copilot admite las transferencias de inquilinos o suscripciones?

No, en este momento Security Copilot no admite el traslado de recursos de Security Copilot entre Microsoft Entra inquilinos o transferencias de suscripciones.

¿Se pueden compartir las SCU entre las áreas de trabajo Security Copilot de un inquilino?

Las SCU, ya sean aprovisionadas o de uso excesivo, no se pueden compartir entre áreas de trabajo. Por ejemplo, si una organización tiene el área de trabajo A (1 aprovisionada, tres por encima del límite) y el área de trabajo B (2 aprovisionadas, cinco sobrecuentas), el área de trabajo A no puede usar las SCU del área de trabajo B para evitar la limitación si agota su propio total de 4 SCU. De forma similar, el área de trabajo B no puede usar la capacidad de SCU del área de trabajo A si agota sus propias SCU.

¿Cómo puedo calcular el aprovisionamiento y el presupuesto de SCU para Security Copilot?

La estimación de las necesidades de SCU y el presupuesto depende de cómo su organización use la inteligencia artificial generativa en los productos de seguridad de Microsoft. Use la calculadora de capacidad de SCU para obtener un punto de partida en función del número de usuarios y cargas de trabajo en Microsoft Defender, Microsoft Intune, Microsoft Purview, Microsoft Entra y la experiencia Security Copilot independiente. Dado que cada solicitud y flujo de trabajo varía en complejidad, el consumo de SCU no es fijo. Inicie pequeños, experimente y refine en función del uso real. Realice un seguimiento del uso en tiempo real con el panel del producto, lo que le ayuda a supervisar el consumo de SCU y ajustar la capacidad según sea necesario.

Cómo interpretar los resultados en la calculadora de capacidad de SCU?

Los resultados muestran el número máximo esperado de SKU por hora, en función del número de usuarios mensuales por experiencia y de la inclusión de la automatización a través de Logic Apps y Promptbooks. Además de las SCU máximas por hora, la calculadora también muestra todas las combinaciones posibles de SCU aprovisionadas y de uso superior, junto con el intervalo de costos mensual correspondiente. El costo mensual más alto se calcula en función del uso continuo de la capacidad 24/7.

¿Qué ocurre si mis necesidades no están cubiertas por la calculadora de capacidad de SCU (por ejemplo, tengo más de 50 usuarios Intune).

No dude en ponerse en contacto con nosotros o ponerse en contacto con el administrador de cuentas de Microsoft para obtener más información.

¿Cuáles son los requisitos mínimos de aprovisionamiento de LASU en áreas de trabajo?

Para usar Microsoft Security Copilot, cada inquilino debe aprovisionar un SCU como mínimo. La SCU aprovisionada permite el acceso a al menos un área de trabajo.

  • Las SCU aprovisionadas son necesarias para activar la capacidad y se facturan cada hora.
  • Las SCU de uso superior se pueden establecer de 0 a 999 y solo se facturan cuando se usan.

Información técnica y de producto

¿Qué herramientas de asociados se integran con Security Copilot?

Microsoft Security Copilot admite muchos complementos, incluidos los complementos de Microsoft y los que no son de Microsoft. Para obtener más información, consulte Complementos.

Nota:

Los productos que se integran con Security Copilot deben adquirirse por separado.

¿Security Copilot realiza recomendaciones para escenarios de IoT/OT?

No, Security Copilot no admite actualmente IoT/OT.

¿Security Copilot ofrece paneles?

Security Copilot ofrece un panel de uso del producto en el que los clientes pueden profundizar en su consumo de SCU.

¿Puede Security Copilot ejecutar flujos de trabajo, desde la triaging hasta el uso de mensajes anclados, hasta la forma en que el cliente debe etiquetar el incidente y si se debe cerrar un incidente?

Security Copilot proporciona cuadernos de mensajes que son flujos de trabajo listos para usar que pueden servir como plantillas para automatizar pasos repetitivos, por ejemplo, en relación con la respuesta a incidentes o las investigaciones. Además, hay conectores en Security Copilot que son un contenedor alrededor de la API que permite a los desarrolladores y usuarios llamar a la plataforma de Microsoft Security Copilot para realizar tareas especializadas. Por ejemplo, el conector de Logic Apps permite llamar a Copilot desde un flujo de trabajo de Azure Logic Apps. Del mismo modo, el conector de Copilot Studio permite acceder a Security Copilot para realizar acciones como "enviar un mensaje de Security Copilot" o "capturar un estado de solicitud de Security Copilot".

¿Qué características de delegación o control de acceso basadas en roles tiene Security Copilot? ¿Cómo se mantienen los permisos de usuario en Security Copilot alineación con las configuraciones de permisos de usuario en otras soluciones?

Copilot usa la autenticación en nombre de para acceder a datos relacionados con la seguridad a través de complementos activos de Microsoft. Se deben asignar roles de Security Copilot específicos para que un grupo o individuo acceda a la plataforma de Security Copilot. Para obtener más información, vea agregar autenticación.

¿Cómo se Security Copilot tratar con un "límite de token"?

Los modelos de lenguaje grande (LLM), incluido GPT, tienen límites en cuanto a la cantidad de información que pueden procesar a la vez. Este límite se conoce como "límite de token" y se correlaciona aproximadamente con 1,2 palabras por token. Security Copilot usa los modelos GPT más recientes de Azure OpenAI para garantizar que podemos procesar toda la información posible en una sola sesión. En algunos casos, los mensajes grandes, las sesiones largas o la salida detallada del complemento pueden desbordar el espacio del token. Cuando se produce este escenario, Security Copilot intenta aplicar mitigaciones para asegurarse de que una salida siempre está disponible, incluso si el contenido de esa salida no es óptimo. Estas mitigaciones no siempre son eficaces y es posible que sea necesario dejar de procesar la solicitud y dirigir al usuario a probar un símbolo del sistema o complemento diferente.

¿Qué son los agentes Security Copilot?

Microsoft Security Copilot agentes mejoran la seguridad y las operaciones de TI con automatización autónoma y adaptable. Los agentes se integran perfectamente con las soluciones de seguridad de Microsoft y el ecosistema de asociados de terceros para controlar las tareas de seguridad de gran volumen. Diseñados específicamente para la seguridad, estos agentes aprenden de los comentarios, se adaptan a los flujos de trabajo de la organización con su equipo totalmente bajo control y operan de forma segura dentro del marco de Confianza cero de Microsoft, lo que acelera las respuestas, prioriza los riesgos y impulsa la eficiencia. Al reducir las cargas de trabajo manuales, mejoran la eficacia operativa y refuerzan la posición de seguridad general de su organización.

Visite el centro de adopción para obtener más información sobre los agentes de Security Copilot.

¿Qué recursos de proceso usan Security Copilot agentes?

Los agentes usan LASC para funcionar igual que otras características de Security Copilot. Se integran sin problemas con las soluciones de seguridad de Microsoft y el ecosistema de asociados compatible más amplio.

¿Dónde puedo encontrar Security Copilot agentes?

Puede detectar fácilmente Microsoft Security Copilot agentes tanto de las experiencias independientes como incrustadas.

Para la experiencia independiente, puede seleccionar Ir a agentes en el banner. También puede navegar a la biblioteca del agente desde el menú principal. En las experiencias insertadas, verá agentes en el portal y explorará sus funcionalidades.

Visite el centro de adopción para obtener más información.

¿Qué son los conectores en Security Copilot?

Los conectores de Security Copilot son un contenedor alrededor de la API que permite a los desarrolladores y usuarios llamar a la plataforma Microsoft Security Copilot para realizar tareas especializadas. Actualmente, se admiten Logic Apps y los conectores de Copilot Studio. Para obtener más información, consulte Conectores.

¿Cómo funciona el conector de Copilot Studio?

Copilot Studio conector permite acceder a Security Copilot al crear flujos de trabajo de automatización. Con el conector de Security Copilot, puede hacer lo siguiente:

  • Enviar una solicitud de Security Copilot: envíe una solicitud de lenguaje natural para crear una nueva investigación de Security Copilot. Después de la finalización, el resultado de la evaluación se devolverá al flujo de trabajo.
  • Capturar un estado de solicitud de Security Copilot: envíe una solicitud de lenguaje natural para extraer el estado de una evaluación de Security Copilot. Después de la finalización, el resultado de la evaluación se devolverá al flujo de trabajo.

¿Cómo funciona el conector de Logic Apps?

El conector Microsoft Security Copilot Logic Apps permite llamar a Copilot desde un flujo de trabajo de Azure Logic Apps. El conector expone dos acciones del conector:

  • Enviar una solicitud de Security Copilot: envíe una solicitud de lenguaje natural para crear una nueva investigación de Security Copilot. Después de la finalización, el resultado de la evaluación se devolverá al flujo de trabajo.
  • Envío de una Security Copilot libreta de mensajes: dado un cuaderno de mensajes, invoque una nueva evaluación de la libreta de mensajes Security Copilot y devuelva la salida al flujo de trabajo de Azure Logic Apps.

¿Qué es un área de trabajo de Security Copilot?

En el contexto de Security Copilot, las áreas de trabajo ayudan a los equipos a administrar recursos, optimizar flujos de trabajo y mantener el cumplimiento de las directivas de la organización. También puede configurarlo para las necesidades específicas de los equipos y grupos, incluidos aspectos como el diseño del acceso, la asignación de capacidad, la configuración de complementos específicos, la implementación de agentes y la adición de cuadernos de mensajes para adaptar la experiencia en función de los requisitos únicos de cada equipo o grupo.

Las áreas de trabajo proporcionan una manera flexible de segmentar entornos, lo que facilita la alineación del acceso y la capacidad con las necesidades de la organización, las estructuras legales o los requisitos de cumplimiento. Para obtener más información, consulte Información general sobre áreas de trabajo.

Información sobre datos y privacidad

¿Se usan los datos de cliente para entrenar modelos básicos de Azure OpenAI Service?

No, los datos de cliente no se usan para entrenar modelos básicos de Azure OpenAI Service, y este compromiso se documenta en nuestros Términos de producto. Para obtener más información sobre el uso compartido de datos en el contexto de Security Copilot, consulte Privacidad y seguridad de datos.

¿Cuál es la guía del RGPD para los mercados de la UE?

Microsoft cumple con todas las leyes y regulaciones aplicables a su proveedor de productos y servicios, incluida la ley de notificación de infracciones de seguridad y los requisitos de protección de datos (tal como se define en el DPA de Microsoft). Sin embargo, Microsoft no es responsable del cumplimiento de las leyes o regulaciones aplicables al cliente o al sector del cliente que no sean aplicables con carácter general a los proveedores de servicios de tecnología de la información. Microsoft no determina si los datos del cliente incluyen información sujeta a cualquier ley o regulación específica. Para obtener más información, consulte Complemento de protección de datos de productos y servicios de Microsoft (DPA).

¿Los clientes de us Government Cloud (GCC) son aptos?

Actualmente, Security Copilot no está diseñado para su uso por los clientes que usan nubes gubernamentales de EE. UU., incluidos, entre otros, GCC, GCC High, DoD y Microsoft Azure Government. Para obtener más información, consulte con su representante de Microsoft.

¿Son elegibles los clientes de atención médica de EE. UU. y Canadá?

Los clientes de HLS de EE. UU. y Canadá pueden comprar Security Copilot. Microsoft Security Copilot ahora está incluido en la lista y está cubierto por el Contrato de Asociación Empresarial ("BAA"), que es importante para los proveedores de atención sanitaria que están sujetos a las regulaciones de HIPAA. Para obtener más información sobre las ofertas de cumplimiento que se cubren actualmente para Microsoft Security Copilot se puede encontrar en el Portal de confianza de servicios.

Cómo exportar o eliminar datos de Security Copilot?

Deberá ponerse en contacto con el soporte técnico. Para obtener más información, consulte Ponerse en contacto con el soporte técnico.

¿Dónde puedo encontrar más información sobre protección de datos y privacidad?

Puede obtener más información en el Centro de confianza de Microsoft.

El código de conducta del servicio OpenAI de Azure incluye "Requisitos de mitigación de inteligencia artificial responsable". ¿Cómo se aplican esos requisitos a Security Copilot clientes?

Estos requisitos no se aplican a Security Copilot clientes porque Security Copilot implementa estas mitigaciones.

¿Por qué Microsoft Copilot transferir datos a un inquilino de Microsoft?

Microsoft Copilot es una oferta saas (software como servicio) que se ejecuta en el inquilino de producción de Azure. Los usuarios escriben solicitudes y Security Copilot proporcionan respuestas basadas en la información procedente de otros productos, como Microsoft Defender XDR, Microsoft Sentinel y Microsoft Intune. Security Copilot almacena mensajes y respuestas anteriores para un usuario. El usuario puede usar la experiencia del producto para acceder a las solicitudes y respuestas. Los datos de un cliente están aislados lógicamente de los datos de otros clientes. Estos datos no dejan el inquilino de producción de Azure y se almacenan hasta que los clientes pidan eliminarlos o quitarlos del producto.

¿Cómo se protegen los datos transferidos en tránsito y en reposo?

Los datos se cifran tanto en tránsito como en reposo, como se describe en el anexo de protección de datos de productos y servicios de Microsoft.

¿Cómo se protegen los datos transferidos frente al acceso no autorizado y qué pruebas se realizaron para este escenario?

De forma predeterminada, ningún usuario humano tiene acceso a la base de datos y el acceso a la red está restringido a la red privada donde se implementa la aplicación Microsoft Copilot. Si un usuario necesita acceso para responder a un incidente, el ingeniero de guardia necesita acceso elevado y acceso a la red aprobados por los empleados autorizados de Microsoft.

Además de las pruebas de características normales, Microsoft también completó las pruebas de penetración. Microsoft Security Copilot cumple con todos los requisitos de privacidad, seguridad y cumplimiento de Microsoft.

En "Mis sesiones" cuando se elimina una sesión individual, ¿qué ocurre con los datos de sesión?

Los datos de sesión se almacenan con fines en tiempo de ejecución (para operar el servicio) y también en los registros. En la base de datos en tiempo de ejecución, cuando se elimina una sesión a través de la experiencia de usuario del producto, todos los datos asociados a esa sesión se marcan como eliminados y el tiempo de vida (TTL) se establece en 30 días. Después de que expire ese TTL, las consultas no podrán acceder a esos datos. Un proceso en segundo plano elimina físicamente los datos después de ese tiempo. Además de la base de datos en tiempo de ejecución "live", hay copias de seguridad periódicas de la base de datos. Las copias de seguridad agotarán el tiempo de espera: tienen períodos de retención de corta duración (actualmente establecidos en cuatro días).

Los registros, que contienen datos de sesión, no se ven afectados cuando se elimina una sesión a través de la experiencia de usuario del producto. Estos registros tienen un período de retención de hasta 90 días.

¿Qué términos de producto se aplican a Security Copilot? ¿Security Copilot un "servicio de inteligencia artificial generativo de Microsoft" en el sentido de los Términos de producto de Microsoft?

Los siguientes Términos de producto rigen Security Copilot clientes:

  • Términos de licencia universal para los servicios en línea en los Términos del producto, que incluyen los términos de los Servicios de inteligencia artificial de Microsoft Generative y el compromiso de derechos de autor del cliente.

  • Privacidad & Términos de seguridad en los Términos de producto de Microsoft, que incluyen el Anexo de protección de datos.

Security Copilot es un servicio de inteligencia artificial generativa dentro de la definición de los Términos del producto. Además, Security Copilot es un "Producto cubierto" a efectos del Compromiso de derechos de autor del cliente. En este momento, en los Términos del producto no hay términos específicos del producto únicos para Security Copilot.

Además de los Términos del producto, los contratos MBSA/EA y MCA de los clientes, por ejemplo, rigen la relación de las partes. Si un cliente tiene preguntas específicas sobre sus contratos con Microsoft, póngase en contacto con la CE, el administrador de ofertas o el CELA local que apoya la oferta.

El compromiso de derechos de autor del cliente de Microsoft es un nuevo compromiso que amplía el soporte de indemnización de propiedad intelectual existente de Microsoft a determinados servicios comerciales de Copilot. El compromiso de derechos de autor del cliente se aplica a Security Copilot. Si un tercero demanda a un cliente comercial por infracción de derechos de autor por usar Copilots de Microsoft o la salida que genera, Microsoft defenderá al cliente y pagará la cantidad de juicios o acuerdos adversos que resulten de la demanda, siempre que el cliente haya usado los filtros de contenido y barreras de protección integrados en nuestros productos.

¿Puede Security Copilot clientes no participar en la supervisión de abusos del servicio OpenAI de Azure? ¿Security Copilot participa en algún filtrado de contenido o supervisión de abusos?

La supervisión del abuso de Azure OpenAI está deshabilitada actualmente en todo el servicio para todos los clientes.

¿Security Copilot realiza algún compromiso de procesamiento de datos o residencia de datos?

Para obtener más información sobre la ubicación y el procesamiento del almacenamiento de datos del cliente, consulte Privacidad y seguridad de datos.

¿Security Copilot un servicio de límite de datos de Microsoft EU?

En el momento de la disponibilidad general, todos los servicios de seguridad de Microsoft están fuera del ámbito de los requisitos de residencia de datos de la UE y Security Copilot no aparecerán como un servicio EUDB.

¿Dónde se almacenan los datos de clientes de la UE?

Security Copilot almacena datos de cliente y datos personales, como mensajes de usuario y identificadores de objeto de Microsoft Entra en la ubicación geográfica del inquilino. Si un cliente aprovisiona su inquilino en la UE y no participa en el uso compartido de datos, todos los datos de cliente y los datos personales seudonimizados se almacenan en reposo dentro de la UE. El procesamiento de los datos del cliente y los avisos de datos personales puede producirse en la geoárea de GPU de seguridad designada. Para obtener más información sobre la selección de geografía de GPU de seguridad, consulte Introducción a Security Copilot. Si un cliente participa en el uso compartido de datos, los avisos se pueden almacenar fuera del límite de datos de la UE. Para obtener más información sobre el uso compartido de datos, consulte Privacidad y seguridad de datos.

¿Se consideran los avisos del cliente (como el contenido de entrada del cliente) los datos del cliente dentro de los términos del DPA y los términos del producto?

Sí, los avisos del cliente se consideran datos de cliente. En los Términos del producto, los avisos del cliente se consideran entradas. Las entradas se definen como "todos los datos de cliente que el cliente proporciona, designa, selecciona o entradas para su uso por una tecnología de inteligencia artificial generativa para generar o personalizar una salida".

¿Se considera "Contenido de salida" los datos del cliente dentro de los términos del DPA y los Términos del producto?

Sí, el contenido de salida es Datos del cliente en los Términos del producto.

¿Hay una nota de transparencia o documentación de transparencia para Security Copilot?

Sí, puede encontrar el documento de transparencia de la inteligencia artificial responsable aquí: Preguntas más frecuentes sobre la inteligencia artificial responsable.

¿Cuáles son las ofertas de cumplimiento para Microsoft Security Copilot?

Microsoft Security Copilot se dedica a mantener los estándares más altos de seguridad, privacidad y excelencia operativa, como lo demuestra su amplia gama de certificaciones del sector. Estos incluyen ISO 27001 para la administración de seguridad de la información, ISO 27018 para la protección de datos personales en la nube, ISO 27017 para controles de seguridad específicos de la nube y ISO 27701 para la administración de la información de privacidad.

Además, Security Copilot posee certificaciones para ISO 20000-1 en administración de servicios de TI, ISO 9001 en gestión de calidad y ISO 22301 en gestión de continuidad empresarial. También cumple con los requisitos de seguridad, disponibilidad y confidencialidad de SOC2, lo que subraya nuestro compromiso con la entrega de servicios seguros y confiables. En el caso de los servicios relacionados con la salud, Security Copilot está certificado bajo el marco de HiTrust CSF, lo que mejora aún más su posición de seguridad y cumplimiento, y está cubierto por acuerdos de asociación empresarial (BAA) hipaa, lo que garantiza el cumplimiento de las regulaciones sanitarias y la protección de la información confidencial de salud.

Para obtener más información sobre las ofertas de cumplimiento cubiertas actualmente para Microsoft Security Copilot consulte Portal de confianza de servicios.

Información del asociado

¿Cuáles son los casos de uso de asociados?  

Los asociados pueden proporcionar señales o crear soluciones complementarias en torno a Security Copilot escenarios.

Si un cliente trabaja con un proveedor de servicios de seguridad administrado (MSSP), ¿puede el MSSP usar y administrar Security Copilot en nombre del cliente?

Sí, los MSSP que proporcionan servicios SOC para los clientes pueden acceder al entorno de Security Copilot del cliente si el cliente decide proporcionar acceso. Entre las opciones disponibles se incluyen:

  • Azure Lighthouse
  • Colaboración B2B o cuentas de invitado
  • Privilegios de Administración delegados granulares (GDAP)

Actualmente no hay un modelo de CSP o revendedor multiinquilino para MSSP. Cada cliente es responsable de comprar sus propias SCU y configurar sus MSSP con el acceso necesario si está accediendo dentro del inquilino del cliente. Si se proporciona acceso delegado de Azure Lighthouse a las áreas de trabajo Microsoft Sentinel del cliente, el asociado podrá usar las SCU del plan de capacidad del asociado para realizar la solicitud en los datos del área de trabajo de Microsoft Sentinel del cliente.

Si un MSSP solicita a través del inquilino de un cliente, mediante Azure Lighthouse, ¿usará el MSSP sus propias SCU o las SCU del cliente?

Azure Lighthouse permite a los asociados obtener permisos de Security Copilot para las áreas de trabajo de Microsoft Sentinel del cliente y otros recursos de Azure admitidos. El plan de capacidad (SCU) usado es el plan de capacidad del inquilino del asociado.

¿Pueden los MSSP usar una única instancia de Security Copilot para administrar varios inquilinos?

Azure Lighthouse es compatible con la invocación de aptitudes basadas en Sentinel del inquilino del asociado en el área de trabajo de Microsoft Sentinel de un solo cliente en un momento en que se ha proporcionado acceso delegado al asociado a través de Azure Lighthouse. El inquilino del asociado aprovechará sus SCU para realizar Security Copilot invocadas Microsoft Sentinel aptitudes en el inquilino del cliente sin necesidad de que el inquilino del cliente se aprovisione para Security Copilot o tener SCU propias.

¿Hay integraciones de terceros disponibles hoy en día?

Microsoft Security Copilot admite muchos complementos, incluidos los complementos de Microsoft y los que no son de Microsoft. Para obtener más información, consulte Información general sobre complementos que no son de Microsoft. Además, hay agentes de nuestros asociados que están disponibles en Security Copilot. Para obtener más información, consulte Agentes de asociados.

Nota:

Los productos que se integran con Security Copilot deben adquirirse por separado.

¿Hay algún marketplace para los complementos o servicios? 

No hay un marketplace de complementos. Los ISV pueden publicar sus soluciones en GitHub. Todos los asociados deben publicar sus soluciones o servicios administrados en el marketplace comercial de Microsoft. Para obtener más información sobre la publicación en Marketplace, consulte:

Publicar solución en El Marketplace comercial de Microsoft:

Específico de MSSP: Debe tener una designación de seguridad en Microsoft AI Cloud Partner Program.

Específico de SaaS:

¿Qué ocurre si los CSP no usan Microsoft Defender XDR o Microsoft Sentinel? 

Microsoft Security Copilot no tiene ningún requisito específico de producto de seguridad de Microsoft para el aprovisionamiento o el uso, ya que la solución se basa en la agregación de orígenes de datos tanto de Microsoft como de servicios de terceros. Dicho esto, hay un valor significativo en tener Microsoft Defender XDR y Microsoft Sentinel habilitados como complementos admitidos para enriquecer las investigaciones. Security Copilot solo usa aptitudes y accede a datos de complementos habilitados.

¿Es necesario hospedar una solución SOC MSSPs en Azure? 

Se recomienda que la solución se hospede en Azure, pero no es necesaria. 

¿Hay un plan de desarrollo de productos que se pueda compartir con los asociados? 

De momento, no.