Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Al ampliar Microsoft 365 Copilot con agentes, las consultas basadas en los mensajes, el historial de conversaciones y los datos de Microsoft 365 se pueden compartir con el agente para generar una respuesta o completar un comando. Al ampliar Microsoft 365 Copilot con conectores de Microsoft 365 Copilot, los datos externos se ingieren en Microsoft Graph y permanecen en el inquilino. En este artículo se describen las consideraciones de seguridad y privacidad de los datos para desarrollar diferentes soluciones de extensibilidad de Copilot, tanto internas como comerciales.
Agentes y acciones
Los agentes de Microsoft 365 Copilot se rigen individualmente por sus términos de uso y directivas de privacidad. Como desarrollador de agentes y acciones (complementos de API), es responsable de proteger los datos del cliente dentro de los límites de su servicio y proporcionar información sobre las directivas relacionadas con la información personal de los usuarios. Los administradores y los usuarios pueden ver la directiva de privacidad y los términos de uso en la tienda de aplicaciones antes de elegir agregar o usar el agente.
Al integrar los flujos de trabajo empresariales como agentes para Copilot, los datos externos permanecen dentro de la aplicación; no fluye a Microsoft Graph y no se usa para entrenar llms copilot de Microsoft 365. Sin embargo, Copilot genera una consulta de búsqueda para enviar al agente en nombre del usuario en función de su historial de mensajes y conversaciones con Copilot y los datos a los que el usuario tiene acceso en Microsoft 365. Para obtener más información, consulte Datos almacenados sobre las interacciones del usuario con Microsoft 365 Copilot en la documentación de administración de Microsoft 365 Copilot.
Garantizar una implementación segura de agentes declarativos en Microsoft 365
Microsoft 365 clientes y asociados pueden crear agentes declarativos que extiendan Microsoft 365 Copilot con instrucciones personalizadas, conocimientos básicos y acciones invocadas a través de las descripciones de la API rest configuradas por el agente declarativo. En tiempo de ejecución, Microsoft 365 Copilot explica una combinación de la solicitud del usuario, las instrucciones personalizadas que forman parte del agente declarativo y los datos proporcionados por acciones personalizadas. Todos estos datos pueden influir en el comportamiento del sistema y este procesamiento conlleva riesgos de seguridad. En concreto, si una acción personalizada puede proporcionar datos de orígenes que no son de confianza (como correos electrónicos o vales de soporte técnico), es posible que un atacante pueda diseñar una carga de mensaje que haga que el agente se comporte de forma que el atacante controle, como responder incorrectamente a preguntas o incluso invocar acciones personalizadas. Microsoft toma muchas medidas para evitar estos ataques. Además, las organizaciones solo deben habilitar agentes declarativos que usen orígenes de conocimiento de confianza y se conecten a las API REST de confianza a través de acciones personalizadas. Si es necesario el uso de orígenes de datos que no son de confianza, diseñe el agente declarativo con la posibilidad de vulneración en la mente y no le proporcione la capacidad de realizar operaciones confidenciales sin una intervención humana cuidadosa.
Microsoft 365 proporciona a las organizaciones amplios controles que rigen quién puede adquirir y usar aplicaciones integradas y qué aplicaciones están habilitadas para grupos o personas dentro de un inquilino de Microsoft 365, incluidas las aplicaciones que usan agentes declarativos. Herramientas como Copilot Studio, que permiten a los usuarios crear sus propios agentes declarativos, también incluyen controles amplios que permiten a los administradores controlar los conectores usados para el conocimiento y las acciones personalizadas.
Conectores de Microsoft 365 Copilot
Microsoft 365 Copilot presenta solo los datos a los que cada individuo puede acceder mediante los mismos controles subyacentes para el acceso a datos usados en otros servicios de Microsoft 365. Microsoft Graph respeta el límite de acceso basado en la identidad del usuario para que el proceso de puesta a tierra de Microsoft 365 Copilot solo acceda al contenido al que el usuario actual está autorizado a acceder. Esto también sucede con los datos externos dentro de Microsoft Graph ingeridos desde un conector copilot de Microsoft 365.
Al conectar los datos externos a Microsoft 365 Copilot con un conector de Microsoft 365 Copilot, los datos fluyen a Microsoft Graph. Puede administrar permisos para ver elementos externos mediante la asociación de una lista de control de acceso (ACL) con un identificador de usuario y grupo de Microsoft Entra o un grupo externo.
Las solicitudes, respuestas y los datos a los que se accede a través de Microsoft Graph no se usan para entrenar LLM básicos, incluidos aquellos que usa Microsoft 365 Copilot.
Consideraciones para desarrolladores de línea de negocio
Microsoft 365 Copilot solo comparte datos con y busca en agentes o conectores habilitados para Copilot por un administrador de Microsoft 365. Como desarrollador de línea de negocio de soluciones de extensibilidad de Copilot, asegúrese de que usted y su administrador están familiarizados con:
- Requisitos de Microsoft 365 Copilot
- Documentación de administración de Datos, Privacidad y Seguridad para Microsoft 365 Copilot
- Confianza cero principios para el plan de implementación de Microsoft 365 Copilot para aplicar principios de Confianza cero a Microsoft 365 Copilot
- Centro de administración de Microsoft 365 procedimientos:
Consideraciones para editores de software independientes
El envío del paquete de la aplicación al Centro de partners de Microsoft Microsoft 365 y al programa Copilot requiere que se cumplan las directivas de certificación para su aceptación en las tiendas de productos de Microsoft 365. Las directivas y directrices de certificación de Microsoft con respecto a la privacidad, la seguridad y la inteligencia artificial responsable incluyen:
- Directivas de certificación de Microsoft Commercial Marketplace
- Directrices de validación de almacén para la extensibilidad de Copilot
- Comprobaciones de validación de IA responsables
- (Opcional) Certificación del programa de cumplimiento de aplicaciones de Microsoft 365