Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Guía de licencias de Microsoft 365 para el cumplimiento de la seguridad &
Nota:
Este artículo es para la versión clásica de Administración de postura de seguridad de datos que se va a reemplazar por una nueva versión que presenta flujos de trabajo guiados para la administración proactiva de riesgos y simplifica las operaciones de seguridad de datos para que pueda adoptar con más confianza la inteligencia artificial en todo el patrimonio digital.
Estas mejoras no se agregarán a esta versión clásica, por lo que le invitamos a probar la nueva Administración de postura de seguridad de datos, actualmente en versión preliminar.
Administración de postura de seguridad de datos de Microsoft Purview (DSPM) para la inteligencia artificial desde el portal de Microsoft Purview proporciona una ubicación de administración central que le ayuda a proteger rápidamente los datos de las aplicaciones de inteligencia artificial y supervisar de forma proactiva el uso de la inteligencia artificial. Estas aplicaciones incluyen Copilots, agentes y otras aplicaciones de inteligencia artificial que usan módulos de lenguaje grande (LLM) de terceros.
Administración de postura de seguridad de datos para IA ofrece un conjunto de funcionalidades para que pueda adoptar IA de forma segura sin tener que elegir entre productividad y protección:
Conclusiones y análisis de la actividad de inteligencia artificial en su organización
Directivas listas para usarse para proteger los datos y evitar la pérdida de datos en los avisos de inteligencia artificial
Evaluaciones de riesgos de datos para identificar, corregir y supervisar el posible uso compartido excesivo de datos.
Controles de cumplimiento para aplicar directivas óptimas de control y almacenamiento de datos
Para obtener una lista de sitios de inteligencia artificial de terceros compatibles, como los que se usan para Gemini y ChatGPT, consulte Sitios de IA admitidos por Microsoft Purview para obtener protección de cumplimiento y seguridad de datos.
Uso de Administración de postura de seguridad de datos para IA
Para ayudarle a obtener información más rápida sobre el uso de la inteligencia artificial y proteger los datos, Administración de postura de seguridad de datos para IA proporciona algunas directivas preconfiguradas recomendadas que puede activar con un solo clic. Si usa unidades administrativas, debe ser un administrador sin restricciones para crear estas directivas que se apliquen a todos los usuarios de la organización.
Espere al menos 24 horas para que estas nuevas directivas recopilen datos con el fin de mostrar los resultados en Administración de postura de seguridad de datos para IA o reflejar los cambios que realice en la configuración predeterminada.
Sin necesidad de activación, Administración de postura de seguridad de datos para IA ejecuta automáticamente una evaluación semanal de riesgos de datos para los 100 principales sitios de SharePoint en función del uso de su organización. Puede complementarlo con sus propias evaluaciones de riesgos de datos personalizadas, actualmente en versión preliminar. Estas evaluaciones están diseñadas específicamente para ayudarle a identificar, corregir y supervisar el posible uso compartido excesivo de datos, de modo que pueda estar más seguro de su organización mediante Microsoft 365 Copilot y agentes, y Microsoft 365 Copilot Chat.
Para empezar a trabajar con Administración de postura de seguridad de datos para IA, use el portal de Microsoft Purview. Necesita una cuenta que tenga los permisos adecuados para la administración de cumplimiento, como una cuenta que sea miembro del rol de grupo administrador de cumplimiento de Microsoft Entra.
Sugerencia
Los pasos siguientes proporcionan un tutorial recomendado para usar todas las funcionalidades disponibles de DSPM para la inteligencia artificial. Si está interesado en usar DSPM para la inteligencia artificial solo para una aplicación de inteligencia artificial específica, use los vínculos de la sección Pasos siguientes.
Inicio de sesión en el portal> de Microsoft PurviewSoluciones>DSPM para IA (clásico).
En Información general, mantenga seleccionada la vista Todas las aplicaciones de IA . Revise la sección Introducción para obtener más información sobre Administración de postura de seguridad de datos para IA y las acciones inmediatas que puede realizar. Seleccione cada una de ellas para mostrar el panel flotante para obtener más información, realizar acciones y comprobar el estado actual.
Acción Más información Activar Auditoría de Microsoft Purview La auditoría está activada de forma predeterminada para los nuevos inquilinos, por lo que es posible que ya cumpla este requisito previo. Si lo hace y los usuarios ya tienen licencias asignadas para Microsoft 365 Copilot, comienza a ver información sobre las actividades de Copilot y agentes en la sección Informes más abajo de la página. Instalación de la extensión del explorador Microsoft Purview Requisito previo para sitios de inteligencia artificial de terceros. Incorporación de dispositivos a Microsoft Purview También es un requisito previo para sitios de inteligencia artificial de terceros. Ampliación de la información para la detección de datos Directivas de un solo clic para recopilar información sobre los usuarios que visitan sitios de inteligencia artificial generativos de terceros y les envían información confidencial. La opción es la misma que el botón Extender la información de la sección Análisis de datos de inteligencia artificial más abajo en la página. Para obtener más información sobre los requisitos previos, consulte Requisitos previos para Administración de postura de seguridad de datos para IA.
Para obtener más información sobre las directivas preconfiguradas que puede activar, consulte Directivas de un solo clic de Administración de postura de seguridad de datos para IA.
A continuación, revise la sección Recomendaciones y decida si desea implementar las opciones que sean relevantes para el inquilino. Vea cada recomendación para comprender cómo son relevantes para los datos y obtener más información.
Estas opciones incluyen la ejecución de una evaluación de riesgos de datos en sitios de SharePoint, la creación de etiquetas de confidencialidad y directivas para proteger los datos y la creación de algunas directivas predeterminadas que le ayudarán a detectar y proteger de inmediato los datos confidenciales enviados a sitios de IA generativos. Ejemplos de recomendaciones:
- Proteja los datos de posibles riesgos de uso compartido excesivo mediante la visualización de los resultados de la evaluación de riesgos de datos predeterminada para identificar y corregir problemas que le ayudarán a implementar Microsoft 365 Copilot con mayor confianza.
- Proteja los datos con etiquetas de confidencialidad mediante la creación de un conjunto de etiquetas de confidencialidad predeterminadas si aún no tiene etiquetas de confidencialidad y directivas para publicarlas y etiquetar automáticamente documentos y correos electrónicos.
- Proteja los elementos con etiquetas de confidencialidad del procesamiento de Microsoft 365 Copilot y agente solicitando que seleccione una o varias etiquetas de confidencialidad que impidan Microsoft 365 Copilot y agentes que resumen los datos etiquetados. Para obtener más información sobre esta funcionalidad, consulte Información sobre el uso de Prevención de pérdida de datos de Microsoft Purview para proteger las interacciones con Microsoft 365 Copilot y Copilot Chat.
- Detecte interacciones de riesgo en aplicaciones de inteligencia artificial para calcular el riesgo del usuario mediante la detección de solicitudes y respuestas de riesgo en Microsoft 365 Copilot, agentes y otras aplicaciones de inteligencia artificial generativas. Para obtener más información, consulte Uso de inteligencia artificial de riesgo.
- Descubra y controle las interacciones con ChatGPT Enterprise AI mediante el registro de áreas de trabajo de ChatGPT Enterprise, para identificar posibles riesgos de exposición a datos mediante la detección de información confidencial compartida con ChatGPT Enterprise.
- Obtenga asistencia guiada a las regulaciones de inteligencia artificial, que usa plantillas de regulación de asignación de controles del Administrador de cumplimiento.
- Interacciones seguras para experiencias de Microsoft Copilot, que captura mensajes y respuestas para Copilot en Fabric y Security Copilot. Sin una directiva similar a la que se crea con esta recomendación, los eventos de auditoría se capturan para Copilot en Fabric y Security Copilot, pero no las solicitudes y respuestas.
- Detecte información confidencial compartida con IA a través de la red, que usa la seguridad de datos de red para detectar tipos de información confidencial compartidos con aplicaciones de inteligencia artificial en exploradores, aplicaciones, API, complementos, etc., mediante una integración de Secure Access Service Edge o Perímetro de servicio de seguridad.
- Proteja las interacciones de las aplicaciones empresariales, que captura mensajes y respuestas para el cumplimiento normativo de aplicaciones de inteligencia artificial registradas en Entra, ChatGPT Enterprise Connector y aplicaciones basadas en Microsoft Foundry.
- Proteja los datos en Azure aplicaciones y agentes de inteligencia artificial, que ha configurado instrucciones para capturar mensajes y respuestas para las aplicaciones de inteligencia artificial que usan una o varias suscripciones de IA Azure.
Puede usar el vínculo Ver todas las recomendaciones o Recomendaciones en el panel de navegación para ver todas las recomendaciones disponibles para el inquilino y su estado. Cuando se completa o descarta una recomendación, ya no la verá en la página Información general .
Use la sección Informes o la página Informes del panel de navegación para ver los resultados de las directivas predeterminadas creadas. Debe esperar al menos un día para que se rellenen los informes. Seleccione las categorías de experiencias y agentes de Copilot, aplicaciones de inteligencia artificial empresarial y otras aplicaciones de inteligencia artificial para ayudarle a identificar la aplicación de inteligencia artificial generativa específica.
Use la página Directivas para supervisar el estado de las directivas de un solo clic predeterminadas creadas y las directivas relacionadas con la inteligencia artificial de otras soluciones de Microsoft Purview. Para editar las directivas, use la solución de administración correspondiente en el portal. Por ejemplo, para DSPM para IA- Comportamiento no ético en Copilot, puede revisar y corregir las coincidencias de la solución de cumplimiento de comunicaciones.
Nota:
Si tiene las directivas de retención anteriores para los chats de Teams de ubicación y las interacciones de Copilot, no se incluyen en esta página. Obtenga información sobre cómo crear directivas de retención independientes para Microsoft Copilot Experiencias que se incluirán en esta página Directiva.
Seleccione Aplicaciones y agentes para ver un panel de aplicaciones de inteligencia artificial y sus agentes usados en toda la organización para que pueda identificar y administrar posibles riesgos de seguridad de datos. Para cada agente, vea los detalles sobre los datos confidenciales a los que accedió y cómo están protegidos por directivas de Microsoft Purview.
Seleccione Explorador de actividad para ver los detalles de los datos recopilados de las directivas.
Esta información más detallada incluye el tipo de actividad y el usuario, la fecha y hora, la categoría y la aplicación de la aplicación de IA, la aplicación a la que se accede, los tipos de información confidencial, los archivos a los que se hace referencia y los archivos confidenciales a los que se hace referencia.
Algunos ejemplos de actividades son la interacción con la inteligencia artificial, los tipos de información confidencial y la visita al sitio web de IA. Consultas y las respuestas se incluyen en los eventos de interacción de IA cuando se tienen las permisiones adecuadas. Puede usar el filtro Consultas web en el explorador de actividad para identificar con más facilidad qué interacciones de IA tienen una consulta web, con el panel flotante Interacción de IA que coloca el texto de la consulta de búsqueda en la sección Web references AI app used (Web references AI app used). Para obtener más información sobre los eventos, vea Eventos del Explorador de actividad.
De forma similar a las categorías de informe, las cargas de trabajo incluyen experiencias y agentes de Copilot, aplicaciones de inteligencia artificial empresarial y otras aplicaciones de inteligencia artificial. Entre los ejemplos de un identificador de aplicación y un host de aplicación para experiencias y agentes de Copilot se incluyen Copilots de Microsoft 365 y Copilot Studio. Las aplicaciones de inteligencia artificial empresarial incluyen ChatGPT Enterprise. Otras aplicaciones de inteligencia artificial incluyen las aplicaciones de los sitios de inteligencia artificial de terceros compatibles, como las que se usan para Gemini y ChatGPT.
Seleccione Evaluaciones de riesgos de datos para identificar y corregir posibles riesgos de uso compartido de datos en su organización. Debido a la potencia y velocidad de la inteligencia artificial puede exponer de forma proactiva contenido que podría estar obsoleto, con permisos excesivos o sin controles de gobernanza, la inteligencia artificial generativa amplifica el problema de compartir datos en exceso. Use evaluaciones de riesgos de datos para identificar y corregir problemas.
Para obtener información sobresaliendo en SharePoint y OneDrive, use la pestaña Microsoft 365 y la pestaña Tejido para los elementos de áreas de trabajo de Fabric.
Una evaluación de riesgos de datos predeterminada se ejecuta automáticamente semanalmente para los 100 principales sitios de SharePoint en función del uso en su organización, y es posible que ya haya ejecutado una evaluación personalizada como una de las recomendaciones. Sin embargo, vuelva periódicamente a esta opción para comprobar los resultados semanales más recientes de la evaluación predeterminada y ejecutar evaluaciones personalizadas cuando desee comprobar si hay distintos usuarios o sitios específicos. Una vez que se haya ejecutado una evaluación personalizada, espere al menos 48 horas para ver los resultados que no se actualizan de nuevo. Necesitará una nueva evaluación para ver los cambios en los resultados.
La evaluación predeterminada se muestra en la parte superior de la página con un resumen rápido, como el número total de elementos encontrados, el número de datos confidenciales detectados y el número de vínculos que comparten datos con cualquier persona. La primera vez que se crea la evaluación predeterminada, hay un retraso de 4 días antes de que se muestren los resultados.
Después de seleccionar Ver detalles para obtener información más detallada, en la lista, seleccione cada sitio para acceder al panel flotante que tiene pestañas para Información general, Identificar, Proteger y Supervisar. Use la información de cada pestaña para obtener más información y realizar las acciones recomendadas. Por ejemplo:
Use la pestaña Identificar para identificar la cantidad de datos que se han examinado o no en busca de tipos de información confidencial, con una opción para iniciar un examen de clasificación a petición según sea necesario.
Use la pestaña Proteger para seleccionar opciones para corregir el uso compartido excesivo, entre las que se incluyen:
- Restringir el acceso por etiqueta: use Prevención de pérdida de datos de Microsoft Purview para crear una directiva DLP que impida que Microsoft 365 Copilot y agentes resuman los datos cuando tengan etiquetas de confidencialidad que seleccione. Para obtener más información sobre cómo funciona y los escenarios admitidos, consulte Información sobre el uso de Prevención de pérdida de datos de Microsoft Purview para proteger las interacciones con Microsoft 365 Copilot y Copilot Chat.
- Restringir todos los elementos: use la detección de contenido restringido de SharePoint para enumerar los sitios de SharePoint que se van a excluir de Microsoft 365 Copilot. Para obtener más información, vea Restringir la detección de sitios y contenido de SharePoint.
- Crear una directiva de etiquetado automático: cuando se encuentra información confidencial para archivos sin etiquetar, use Microsoft Purview Information Protection para crear una directiva de etiquetado automático para aplicar automáticamente una etiqueta de confidencialidad para los datos confidenciales. Para obtener más información sobre cómo crear esta directiva, vea Configuración de directivas de etiquetado automático para SharePoint, OneDrive y Exchange.
- Crear directivas de retención: cuando no se haya accedido al contenido durante al menos 3 años, use Administración del ciclo de vida de Microsoft Purview para eliminarlo automáticamente. Para obtener más información sobre cómo crear la directiva de retención, consulte Creación y configuración de directivas de retención.
Use la pestaña Monitor para ver el número de elementos del sitio compartidos con cualquier persona, compartidos con todos los usuarios de la organización, compartidos con personas específicas y compartidos externamente. Seleccione Iniciar una revisión de acceso al sitio de SharePoint para obtener información sobre cómo usar los informes de gobernanza de acceso a datos de SharePoint.
- Para crear su propia evaluación de riesgos de datos personalizada, seleccione Crear evaluación personalizada para identificar posibles problemas de uso compartido excesivo para todos los usuarios o usuarios seleccionados, los orígenes de datos que se van a examinar y ejecutar la evaluación.
Esta evaluación de riesgos de datos se crea en la categoría Evaluaciones personalizadas . Espere a que el estado de la evaluación muestre Completado y selecciónelo para ver los detalles. Para volver a ejecutar una evaluación de riesgos de datos personalizada y ver los resultados después de la expiración de 30 días, use la opción duplicada para crear una nueva evaluación con las mismas selecciones.
Nota:
Las evaluaciones personalizadas de Microsoft 365 admiten opcionalmente el examen de nivel de elemento con acciones de corrección cuando se completa un proceso de autenticación única. Para especificar la configuración necesaria, debe tener una aplicación Entra registrada. Para obtener más información sobre la aplicación Entra, consulte Requisitos previos para el examen de nivel de elemento de Microsoft 365 para las evaluaciones de riesgos de datos.
Seleccione Nivel de elemento en la página Nivel de examen y, a continuación, Autentíquese para especificar la información de la aplicación Entra.
El examen y la corrección en el nivel de elemento de los elementos que potencialmente están sobrecompartido solo se aplican a Microsoft 365 y actualmente están restringidos a sitios de SharePoint. Este examen identifica los elementos como potencialmente compartidos si tienen un vínculo de uso compartido para usuarios externos o anónimos, y también muestra cualquier etiqueta de confidencialidad aplicada y el propietario de cada elemento.
Una vez completado el examen, abra la evaluación personalizada y vea la información de nivel de elemento desde la pestaña Elementos potencialmente sobrecompartido o el botón Ver elementos del banner Elementos potencialmente sobres compartidos . Se pueden realizar las siguientes acciones de corrección en los elementos potencialmente compartidos identificados:- Resuelva, por ejemplo, si decide que el elemento no está en riesgo de compartirse en exceso.
- Aplique la etiqueta de confidencialidad para los elementos que se identifican como no etiquetados actualmente o que deben tener una etiqueta de confidencialidad diferente.
- Notifique al propietario del sitio una notificación por correo electrónico (no personalizable).
- Quite el vínculo de uso compartido para quitar el vínculo de uso compartido existente para que ya no se pueda usar para acceder al elemento. Se trata de una acción que se va a usar con moderación porque podría impedir que las personas accedan al elemento legítimamente. En este escenario, el propietario del sitio o el propietario del elemento debe establecer un tipo de vínculo de uso compartido menos permisivo para los usuarios autorizados. Si aún no lo ha hecho, considere la posibilidad de configurar etiquetas de confidencialidad para un vínculo de uso compartido predeterminado.
Límites para Microsoft 365:Sugerencia
Las evaluaciones de riesgos de datos predeterminadas y personalizadas proporcionan una opción de exportación que le permite guardar y personalizar los datos en una selección de formatos de archivo (Excel, CSV, JSON, TSV).
- Un máximo de 200 000 elementos por ubicación, que se aplica tanto a una evaluación de riesgos de datos personalizada como a una evaluación de riesgos de datos predeterminada. Es posible que el recuento de archivos notificados no sea preciso cuando hay más de 100 000 archivos por ubicación.
- OneDrive no se admite actualmente para el examen de nivel de elemento.
- Un máximo actual de 10 sitios de SharePoint para el examen de nivel de elemento.
Pasos siguientes
Use las directivas, herramientas e información de DSPM para la inteligencia artificial junto con las protecciones y funcionalidades de cumplimiento adicionales de Microsoft Purview. Si está interesado en una aplicación de inteligencia artificial específica, use los vínculos siguientes:
- Microsoft 365 Copilot & Microsoft 365 Copilot Chat
- Seguridad de Microsoft Copilot
- Copilot en tejido
- Microsoft Copilot Studio
- Facilitador de Microsoft
- Agente de canal en Microsoft Teams
- Aplicaciones de inteligencia artificial registradas en Entra
- Microsoft Foundry
- ChatGPT Enterprise
- Otras aplicaciones de inteligencia artificial
- Agents