Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Un sistema de IA incluye no solo la tecnología, sino también las personas que la usan, las personas afectadas por ella y el entorno en el que se implementa. Los agentes deben adherirse a los principios de la IA responsable para garantizar la equidad, la rendición de cuentas, la transparencia y el comportamiento ético.
Diseñe el sistema de IA para que trate a todos los usuarios de manera justa, responsabilice a los desarrolladores y usuarios de su rendimiento, garantice la transparencia en las operaciones de IA y cumpla con los estándares éticos.
En Microsoft, estamos comprometidos con el avance de la inteligencia artificial controlado por ciertos principios que antepongan a las personas. Los modelos generativos tienen beneficios potenciales significativos, pero sin un diseño cuidadoso y mitigaciones bien pensadas, estos modelos tienen el potencial de generar contenido incorrecto o incluso dañino. Microsoft ha realizado importantes inversiones para ayudar a protegerse contra el abuso y el daño no intencionado, lo que incluye la incorporación de los principios de Microsoft para el uso responsable de la IA, la adopción de un Código de conducta, la creación de filtros de contenido para ayudar a los clientes y el suministro de información y orientación sobre IA responsable que los clientes deben tener en cuenta al usar la IA generativa.
Copilot Studio y las funciones de IA generativa siguen un conjunto de prácticas básicas de seguridad y privacidad y el Estándar de IA Responsable de Microsoft.
Aprende más:
- Recursos de IA responsable de Microsoft
- Preguntas frecuentes sobre IA responsable para Copilot Studio
- Resumen de las prácticas responsables de IA para los modelos Azure OpenAI
Principios básicos de la IA responsable
Los principios básicos de la IA responsable incluyen la equidad, la rendición de cuentas, la transparencia y la ética. Asegurar que un agente construido con Copilot Studio se ajuste a estos principios fundamentales implica varias prácticas clave:
- Equidad: utilice datos de entrenamiento diversos y representativos para minimizar los sesgos. Actualice regularmente los datos de entrenamiento y contrate auditores para validar la justicia y la equidad.
- Responsabilidad: defina roles y responsabilidades claros para los miembros del equipo involucrados en el proyecto de IA. Establecer y cumplir con estándares éticos que prioricen la equidad y la responsabilidad.
- Transparencia: Asegúrate de que los usuarios sepan que están usando un agente que emplea capacidades de IA generativa. Explique claramente por qué se eligió una solución de IA, cómo se diseñó y cómo se supervisa y actualiza.
- Ética: fomente una plantilla inclusiva y busque la opinión de diversas comunidades al principio del proceso de desarrollo. Evalúe y pruebe regularmente los modelos para detectar preocupaciones éticas y disparidades en el desempeño. Establezca un marco de gobernanza que incluya auditorías periódicas.
Incorpora estas prácticas en tus procesos de desarrollo y despliegue para crear agentes que se adhieran a los principios fundamentales de la IA responsable.
Seguridad y privacidad de datos
Garantizar la privacidad de los datos es fundamental, especialmente porque el agente puede manejar datos sensibles. Al planificar un agente con Copilot Studio, es esencial abordar varios riesgos clave e implementar estrategias de mitigación efectivas:
- Características de la plataforma: comprenda los controles nativos y las características de la plataforma que protegen sus datos. Revisa las preguntas frecuentes sobre IA responsable para Copilot Studio para comprender mejor los sistemas y funciones específicas de IA que Microsoft desarrolla.
- Cifrado de datos: las tecnologías del lado del servicio cifran el contenido organizativo en reposo y en tránsito para lograr una seguridad sólida. Las conexiones están protegidas con Seguridad de la capa de transporte (TLS) y las transferencias de datos entre Dynamics 365, Power Platform y Azure OpenAI se producen a través de la red troncal de Microsoft, lo que garantiza fiabilidad y seguridad. Más información sobre el cifrado en Microsoft Cloud.
- Controles de acceso: Los datos se proporcionan a un agente en función del nivel de acceso del usuario actual. Implemente el control de acceso basado en roles (RBAC) mediante Microsoft Entra ID para garantizar que solo los usuarios autorizados puedan acceder a los datos. Aplique el principio de privilegio mínimo para limitar el acceso solo a lo necesario. Revisa la guía sobre cómo proteger tus proyectos de Copilot Studio y los conceptos clave de seguridad y gobernanza de Copilot Studio.
- Monitorización y auditoría: Detectar y responder a posibles incidentes de seguridad monitorizando regularmente el acceso y uso del agente. Mantenga registros de auditoría detallados para realizar un seguimiento del acceso a los datos y sus modificaciones.
- Cumplimiento y gobernanza: garantice el cumplimiento de las normativas de privacidad de datos pertinentes, como RGPD (Reglamento general de protección de datos), HIPAA (Ley de Portabilidad y Responsabilidad de Seguros Médicos) y CCPA (Ley de Privacidad del Consumidor de California). Implemente prácticas éticas de IA para evitar sesgos y garantizar la equidad en los resultados de IA.
- Educación y formación de usuarios: entrenar a los usuarios sobre las mejores prácticas de seguridad y la importancia de la privacidad de los datos. Mantener informados a los usuarios sobre actualizaciones y cambios en las políticas y procedimientos de seguridad.
Concientización y mitigación de sesgos
Reconozca la importancia de abordar los sesgos en el sistema y garantice la equidad para evitar sesgos en las respuestas de la IA.
- Datos diversos y representativos: asegúrese de que los datos de entrenamiento sean diversos y representativos de diferentes grupos demográficos para minimizar los sesgos inherentes. Audite periódicamente los datos en busca de sesgos y desequilibrios, y tome las medidas correctivas necesarias.
- Herramientas de detección y mitigación de sesgos: utilice herramientas y técnicas para detectar sesgos en los modelos de IA, como el análisis estadístico y las métricas de equidad. Implemente técnicas de eliminación de sesgos, como el remuestreo, la reponderación o la eliminación de sesgos adversarios, para reducir los sesgos en los modelos.
- Human-in-the-loop: incorpore la revisión humana y los bucles de retroalimentación para identificar y corregir los sesgos que la IA pueda introducir. Establezca un comité de ética o una junta de gobernanza para supervisar el desarrollo y la implementación de la IA, asegurando que se cumplan los estándares éticos.
- Transparencia y confianza: Asegúrate de que los usuarios sepan que están usando un agente que emplea capacidades de IA generativa. Comunique claramente por qué se eligió una solución de IA y proporcione información sobre cómo se diseñó y cómo se supervisa y actualiza.
- Supervisión y mejora continuas: supervise continuamente el sistema de IA para detectar sesgos y problemas de rendimiento, y actualice los modelos según sea necesario. Asegúrese de que los modelos sigan siendo justos e imparciales mediante el reentrenamiento periódico de los modelos con datos actualizados y más diversos.
Seguimiento y evaluación continuos
Sigue mejorando a tu agente. Establecer un marco para el seguimiento y evaluación continuos, e incorporar la retroalimentación de los usuarios y los estándares éticos en evolución en las actualizaciones.
- Bucles de retroalimentación: defina mecanismos de retroalimentación en los que los usuarios puedan informar de imprecisiones, que luego se pueden utilizar para refinar y mejorar los modelos.
- Supervisión y auditoría: detecte y responda a posibles incidentes de seguridad supervisando periódicamente el acceso y el uso del sistema de IA. Mantenga registros de auditoría detallados para realizar un seguimiento del acceso a los datos y sus modificaciones.
Paso siguiente
Utiliza la lista de verificación resumen para validar si tu proyecto está listo para avanzar a la implementación y aplica las recomendaciones de mejores prácticas para perfeccionar tu enfoque antes de pasar a la fase de implementación.