Compartir a través de


Gobernanza de aplicaciones y datos de inteligencia artificial para el cumplimiento normativo

Las regulaciones y estándares de inteligencia artificial están emergentes en regiones y sectores, lo que proporciona un marco sólido para que las organizaciones evalúen, implementen y prueben sus controles para desarrollar y usar inteligencia artificial confiable. Este artículo ayuda a los equipos de riesgo y cumplimiento a prepararse para el esfuerzo de cumplimiento. Describe cómo:

  • Evaluar y reforzar su postura de cumplimiento con respecto a las regulaciones.
  • Implemente controles para controlar el uso de aplicaciones y datos de inteligencia artificial.

Este es el cuarto artículo de una serie. Si aún no ha realizado las tareas de Preparación para la seguridad de la inteligencia artificial, Detección de aplicaciones y datos de IA y Protección de aplicaciones y datos de IA, comience con estos artículos para preparar el entorno con funcionalidades prescritas en este artículo.

Diagrama que destaca la Gobernanza de los artículos de seguridad para IA.

Use este artículo junto con estos recursos:

¿Cuáles son las nuevas consideraciones para gobernar las aplicaciones y los datos de inteligencia artificial?

Al igual que la inteligencia artificial introduce nuevas superficies de ataque que cambian el panorama de riesgos, la inteligencia artificial también introduce nuevos métodos de procesamiento y uso de datos que afectan al cumplimiento normativo. Estas nuevas características de la inteligencia artificial afectan tanto a las normativas existentes, como las normativas de privacidad, como las nuevas regulaciones dirigidas específicamente al uso de inteligencia artificial.

En la ilustración siguiente se resaltan las normativas emergentes de inteligencia artificial, incluida la Ley de inteligencia artificial y datos (AIDA) en Norteamérica, la Ley de inteligencia artificial de la UE, el plan de acción de ia en Australia y los estándares globales producidos por ISO.

Captura de pantalla que muestra los estándares globales generados por iso para las regulaciones de inteligencia artificial.

En general, la gobernanza de la inteligencia artificial para el cumplimiento normativo incluye:

  • Registro y retención de interacciones de IA.
  • Detección de un posible uso no conforme.
  • Uso de herramientas, como eDiscovery en interacciones de IA, cuando sea necesario.

Esto ayuda a las organizaciones a cumplir sus requisitos de cumplimiento y a responder a posibles litigios de forma eficaz.

Para las organizaciones que crean inteligencia artificial, riesgos y equipos de cumplimiento deben permitir que los equipos de desarrollo documenten sus detalles del proyecto, como el nombre del modelo, la versión, el propósito de los sistemas de inteligencia artificial y sus métricas de evaluación para abordar los riesgos de calidad, seguridad y seguridad. Este esfuerzo puede ayudar a los equipos de riesgo y cumplimiento a tener un formato estandarizado de información para prepararse para las auditorías y responder a las solicitudes normativas.

Otro procedimiento recomendado es usar evaluaciones de impacto en la privacidad, un control que muchas empresas ya han implementado para normativas como el RGPD, para asegurarse de que las aplicaciones de inteligencia artificial tienen todas las evaluaciones y controles implementados para proteger la privacidad. Microsoft proporciona funcionalidades como las Evaluaciones de privacidad Priva que se pueden integrar fácilmente en el ciclo de vida de desarrollo de IA para garantizar que los desarrolladores mantengan la privacidad en primer lugar.

Por último, para crear aplicaciones de inteligencia artificial responsables y cumplir los nuevos requisitos normativos, las organizaciones deben crear barreras de protección para detectar y bloquear contenido dañino, como violencia, odio, sexual y contenido autolesivo. Además, quiere que las aplicaciones de inteligencia artificial generen contenido confiable. Las barreras de protección deben ayudar a detectar y corregir información incorrecta para reducir el riesgo de decisiones incorrectas basadas en resultados infundados. También deben identificar el contenido que infringe los derechos de autor. Estos límites de protección pueden ayudar a las organizaciones a crear aplicaciones de inteligencia artificial responsables y de confianza.

Funcionalidades para gobernar aplicaciones y datos de inteligencia artificial

Microsoft incluye funcionalidades para ayudar a las organizaciones a conectar los puntos entre los estándares normativos y las soluciones tecnológicas.

Diagrama que muestra las funcionalidades de inteligencia artificial, estándares normativos y soluciones tecnológicas.

En los pasos siguientes se describe la ilustración y también se describen los pasos de implementación de estas funcionalidades.

Paso Tarea Ámbito
1 Compilación y administración de evaluaciones en el Administrador de cumplimiento de Microsoft Purview Toda la empresa
2 Uso de Defender for Cloud Apps para administrar aplicaciones de inteligencia artificial en función del riesgo de cumplimiento Aplicaciones de IA de SaaS
3 Uso de Cloud Security Posture Management (CSPM) para cargas de trabajo de IA para detectar y administrar aplicaciones personalizadas basadas en el riesgo de cumplimiento Aplicaciones de IA personalizadas basadas en Azure
4 Configuración del cumplimiento de comunicaciones de Purview para minimizar los riesgos de comunicación al ayudarle a detectar, capturar y actuar sobre mensajes potencialmente inapropiados en su organización Aplicaciones y servicios de Microsoft 365
Aplicaciones de inteligencia artificial conectadas por conectores de Mapa de datos de Microsoft Entra o Microsoft Purview
Servicios de Azure AI
5 Configure la administración del ciclo de vida de datos de Purview para conservar el contenido que necesita y eliminar el contenido que no necesita. Las directivas de retención para aplicaciones de IA incluyen consultas de usuarios y respuestas para Microsoft 365 Copilot y Copilot Studio, así como consultas de usuarios y respuestas de otros Copilots de Microsoft y aplicaciones de IA generativas cuando tienen una directiva de recopilación con la configuración para capturar contenido. Estos mensajes se pueden conservar y eliminar por motivos de cumplimiento.
Para integrar aplicaciones de inteligencia artificial desarrolladas en otros proveedores de nube, use el SDK de Purview.
6 Use eDiscovery junto con los registros de auditoría de Microsoft 365 Copilot para las investigaciones, según sea necesario. Los registros de auditoría se generan automáticamente cuando un usuario interactúa con Copilot o con una aplicación de IA.
Para integrar aplicaciones de inteligencia artificial desarrolladas en otros proveedores de nube, use el SDK de Purview.
7 Uso de las evaluaciones de privacidad de Priva para iniciar evaluaciones de impacto en la privacidad para las aplicaciones de inteligencia artificial que cree Cualquier aplicación, cualquier ubicación
8 Uso de informes de IA en AI Foundry para documentar los detalles del proyecto de IA para las aplicaciones que desarrolle Aplicaciones de IA en Azure
9 Implementar Azure AI Content Safety para bloquear el contenido dañino y detectar y corregir respuestas infundadas. Aplicaciones de IA en Azure

Paso 1: Compilación y administración de evaluaciones en el Administrador de cumplimiento de Microsoft Purview

Microsoft Purview Compliance Manager es una solución que le ayuda a evaluar y administrar automáticamente el cumplimiento en el entorno multinube. El Administrador de cumplimiento puede ayudarle a lo largo del proceso de cumplimiento, desde realizar un inventario de los riesgos de protección de datos hasta administrar las complejidades de la implementación de controles, estar al corriente de las normativas y certificaciones e informar a los auditores.

Actualmente, el Administrador de cumplimiento incluye plantillas normativas para las siguientes regulaciones relacionadas con la inteligencia artificial:

  • Ley de inteligencia artificial de la UE
  • ISO/IEC 23894:2023
  • ISO/IEC 42001:2023
  • Marco de administración de riesgos de NIST AI (RMF) 1.0

Captura de pantalla que muestra la Ley de Inteligencia Artificial de la UE.

Use los siguientes recursos para empezar a trabajar con el Administrador de cumplimiento.

Tarea Recursos recomendados
Más información y introducción Administrador de cumplimiento de Microsoft Purview
Introducción al Administrador de cumplimiento de Microsoft Purview
Compilación y administración de evaluaciones en el Administrador de cumplimiento de Microsoft Purview
Consulte si el Administrador de cumplimiento incluye una plantilla para una regulación. Lista de regulaciones
Creación de una evaluación personalizada Crear evaluaciones personalizadas (versión preliminar) en el Administrador de cumplimiento de Microsoft Purview

Paso 2: Uso de Defender for Cloud Apps

Use Defender for Cloud Apps para administrar aplicaciones de inteligencia artificial en función del riesgo de cumplimiento. En los artículos anteriores de esta serie se describe cómo usar Defender for Cloud Apps para detectar, administrar y proteger el uso de aplicaciones de inteligencia artificial. El cumplimiento normativo introduce criterios adicionales para priorizar y evaluar el riesgo de estas aplicaciones.

Después de crear una o varias evaluaciones para normativas específicas en el Administrador de cumplimiento de Purview, trabaje con el equipo de Defender for Cloud Apps para integrar sus obligaciones de cumplimiento en los criterios para evaluar el riesgo de aplicaciones de inteligencia artificial, autorizar o bloquear estas aplicaciones y aplicar directivas de sesión para controlar cómo se puede acceder a estas aplicaciones (por ejemplo, solo con un dispositivo compatible).

Consulte los artículos anteriores de esta serie para comenzar a usar Defender for Cloud Apps.

Tarea Recursos recomendados
Detección, autorización y bloqueo de aplicaciones de inteligencia artificial con Microsoft Defender for Cloud Apps Consulte el paso 3 en Detección de aplicaciones y datos de IA.
Uso de Defender for Cloud Apps para evaluar y proteger el uso de aplicaciones de inteligencia artificial Consulte Obtención del máximo partido de la protección contra amenazas para la inteligencia artificial en Protección de aplicaciones y datos de IA

Paso 3: Uso de cloud Security Posture Management (CSPM) para cargas de trabajo de IA

Use el plan de Administración de posturas de seguridad en la nube (CSPM) de Defender en Microsoft Defender for Cloud para detectar y administrar aplicaciones personalizadas basadas en el riesgo de cumplimiento. Al igual que Defender for Cloud Apps, el cumplimiento normativo presenta criterios adicionales para evaluar el riesgo de las aplicaciones desarrolladas personalizadas con CSPM para IA.

Trabaje con el equipo de Defender for Cloud para integrar sus obligaciones de cumplimiento en los criterios para evaluar el riesgo de y gobernar las aplicaciones personalizadas.

Consulte los artículos anteriores de esta serie para comenzar y utilizar Defender for Cloud.

Tarea Recursos recomendados
Detección de cargas de trabajo de IA implementadas en su entorno y obtención de información de seguridad con Microsoft Defender for Cloud Consulte el paso 4 en Detección de aplicaciones y datos de IA]
Aplicación de protecciones de IA en Defender for Cloud Consulte el paso 2 sobre cómo sacar el máximo partido a la protección contra amenazas para la inteligencia artificial en Protección de aplicaciones y datos de IA.

Paso 4: Configurar el cumplimiento normativo de comunicaciones en Purview

Para minimizar los riesgos de comunicación, configure Cumplimiento de comunicaciones de Purview para ayudar a detectar, capturar y tomar medidas en mensajes potencialmente inapropiados en su organización. En el caso de la inteligencia artificial generativa, puede usar directivas de cumplimiento de comunicación para analizar las interacciones (solicitudes y respuestas) introducidas en aplicaciones de inteligencia artificial generativas para ayudar a detectar interacciones inapropiadas o arriesgadas o compartir información confidencial. Se ofrece cobertura para Microsoft 365 Copilot, los copilotos creados con Microsoft Copilot Studio, aplicaciones de inteligencia artificial conectadas mediante conectores de Microsoft Entra o de Mapa de Datos de Microsoft Purview, entre otros.

Use los siguientes recursos para empezar.

Tarea Recursos recomendados
Infórmese y empiece ahora. Obtener más información sobre el cumplimiento de las comunicaciones
Planear el cumplimiento de la comunicación
Introducción al cumplimiento de las comunicaciones
Configurar directivas Configuración de una directiva de cumplimiento de comunicaciones para detectar interacciones de IA generativas
Crear y administrar directivas de cumplimiento de comunicaciones

Paso 5: Configurar la administración del ciclo de vida de los datos de Purview

La administración del ciclo de vida de los datos de Microsoft Purview proporciona herramientas y funcionalidades para conservar el contenido que necesita guardar y eliminar el contenido que no necesita. La eliminación proactiva del contenido que ya no necesita para mantener ayuda a reducir el riesgo de sobreexposición de datos en las herramientas de inteligencia artificial. Entre las características clave se incluyen:

  • Directivas de retención y etiquetas de retención
  • Archivado de buzones e buzones inactivos: los buzones de usuario incluyen una carpeta oculta con avisos y respuestas de Copilot

Use los siguientes recursos para empezar.

Tarea Recursos recomendados
Más información y introducción Más información sobre la administración del ciclo de vida de datos de Microsoft Purview
Introducción a la administración del ciclo de vida de los datos
Más información sobre la retención de aplicaciones de IA & de Copilot Obtenga información sobre cómo funciona la retención con aplicaciones de IA
Para las aplicaciones de inteligencia artificial desarrolladas en otros proveedores de nube, integre con el SDK de Purview. Más información sobre el SDK de Microsoft Purview

Paso 6: Uso de eDiscovery junto con registros de auditoría para Microsoft 365 Copilot

Utilice Microsoft Purview eDiscovery para buscar palabras clave en las solicitudes y respuestas de Copilot que podrían ser inapropiadas. También puede incluir esta información en un caso de exhibición de documentos electrónicos para revisar, exportar o poner estos datos en espera para una investigación legal en curso.

Use los registros de auditoría de Microsoft Purview para identificar cómo, cuándo y dónde se produjeron las interacciones de Copilot y a qué elementos se accedió, incluidas las etiquetas de confidencialidad de esos elementos.

Tarea Recursos recomendados
Obtenga información sobre dónde se almacenan los datos de uso de Copilot y cómo puede auditarlos. Arquitectura de protección de datos y auditoría de Microsoft 365 Copilot
Introducción a eDiscovery Más información sobre las soluciones de eDiscovery
Más información sobre los registros de auditoría de Purview Información sobre las soluciones de auditoría de Microsoft Purview
Más información sobre los registros de auditoría de las aplicaciones de IA Obtenga información sobre qué actividades de administrador y usuario se registran para las aplicaciones de IA.
Para las aplicaciones de inteligencia artificial desarrolladas en otros proveedores de nube, integre con el SDK de Purview. Más información sobre el SDK de Microsoft Purview

Paso 7: Uso de evaluaciones de privacidad Priva

Use las evaluaciones de privacidad de Priva (versión preliminar) para iniciar evaluaciones de impacto en la privacidad para las aplicaciones de inteligencia artificial que cree. Esto ayuda a garantizar que las aplicaciones de inteligencia artificial se compilan de forma respetuosa con la privacidad. Las evaluaciones de privacidad automatizan la detección, la documentación y la evaluación del uso de datos personales en todo el patrimonio de datos.

Use los siguientes recursos para empezar a trabajar con Las evaluaciones de privacidad de Priva y para iniciar una evaluación de impacto en la privacidad.

Tarea Recursos recomendados
Más información y introducción Más información sobre las evaluaciones de privacidad
Introducción a las evaluaciones de privacidad
Crear una valoración Creación y administración de evaluaciones de privacidad

Paso 8: Uso de informes de IA en AI Foundry

Los informes de IA en Azure AI Foundry pueden ayudar a los desarrolladores a documentar sus detalles del proyecto. Los desarrolladores pueden crear un informe que muestre todos los detalles de un proyecto de INTELIGENCIA ARTIFICIAL, como tarjetas de modelo, versiones del modelo, configuraciones de filtro de seguridad de contenido y métricas de evaluación. Este informe se puede exportar en formatos PDF o SPDX, lo que ayuda a los equipos de desarrollo a demostrar la preparación de producción dentro de los flujos de trabajo de gobernanza, riesgo y cumplimiento (GRC) y facilitar auditorías continuas y sencillas de las aplicaciones en producción.

Captura de pantalla que muestra los informes de IA en Azure AI Studio.

Use los siguientes recursos para empezar.

Tarea Recursos recomendados
Obtenga información sobre los informes de IA en AI Foundry (blog) Informes de IA: Mejora de la gobernanza de la inteligencia artificial y GenAIOps con documentación coherente
Más información y introducción a AI Foundry ¿Qué es Azure AI Foundry?

Paso 9: Implementación de la seguridad del contenido de Azure AI

Seguridad del contenido de Azure AI es un servicio de IA que detecta contenido perjudicial generado por usuario y generado por inteligencia artificial en aplicaciones y servicios. Seguridad del contenido de Azure AI incluye varias API de texto e imagen que permiten detectar todo aquel material que sea perjudicial. Content Safety Studio es interactivo y le permite ver, explorar y probar código de ejemplo para detectar contenido perjudicial en diferentes modalidades.

Use los siguientes recursos para empezar.

Tarea Recursos recomendados
Más información y introducción ¿Qué es Seguridad del contenido de Azure AI? - Servicios de Azure AI | Microsoft Learn
Uso de la seguridad del contenido en el portal de Azure AI Foundry

Paso siguiente para proteger la inteligencia artificial

Continúe progresando en la seguridad de un extremo a otro con recursos de Confianza cero: