Administración de una solución de IA generativa responsable
Después de identificar posibles daños, desarrolle una manera de medir su presencia e implemente mitigaciones para ellos en su solución, puede prepararse para lanzar su solución. Antes de hacerlo, hay algunas consideraciones que le ayudarán a garantizar un lanzamiento exitoso y las operaciones posteriores.
Completar revisiones preliminares
Antes de publicar una solución de inteligencia artificial generativa, identifique los distintos requisitos de cumplimiento de la organización y del sector y asegúrese de que los equipos adecuados tienen la oportunidad de revisar el sistema y su documentación. Entre las revisiones de cumplimiento comunes se incluyen las siguientes:
- Jurídico
- Privacidad
- Seguridad
- Accesibilidad
Desplegar y operar la solución
Una versión exitosa requiere algo de planificación y preparación. Tenga en cuenta las directrices siguientes:
- Idee un plan de entrega por fases que le permita lanzar la solución inicialmente a un grupo limitado de usuarios. Este enfoque le permite recopilar comentarios e identificar problemas antes de publicarlos a un público más amplio.
- Cree un plan de respuesta a incidentes que incluya estimaciones del tiempo necesario para responder a incidentes imprevistos.
- Cree un plan de reversión que defina los pasos para revertir la solución a un estado anterior si se produce un incidente.
- Implemente la capacidad de bloquear inmediatamente las respuestas perjudiciales del sistema cuando se detecten.
- Implemente una funcionalidad para bloquear usuarios, aplicaciones o direcciones IP de cliente específicos en caso de uso incorrecto del sistema.
- Implemente una manera de que los usuarios proporcionen comentarios e informen de problemas. En concreto, permite a los usuarios notificar contenido generado como "inexacto", "incompleto", "dañino", "ofensivo" o problemático.
- Realice un seguimiento de los datos de telemetría que le permiten determinar la satisfacción del usuario e identificar brechas funcionales o desafíos de facilidad de uso. La telemetría recopilada debe cumplir con las leyes de privacidad y las directivas y los compromisos de su propia organización con respecto a la privacidad del usuario.
Uso de la seguridad del contenido de Microsoft Foundry
Varios recursos de Azure AI proporcionan análisis integrados del contenido con el que trabajan, incluidos Language, Vision y Azure OpenAI mediante filtros de contenido.
Seguridad de contenido de Microsoft Foundry proporciona más características centradas en mantener la inteligencia artificial y los copilotos a salvo del riesgo. Estas características incluyen detectar lenguaje inapropiado u ofensivo, tanto de entrada como generado, así como entradas de riesgo o inapropiadas.
Entre las características de Foundry Content Safety se incluyen las siguientes:
| Característica | Funcionalidad |
|---|---|
| Escudos de avisos | Examina el riesgo de ataques de entrada de usuario en modelos de lenguaje |
| Detección de la base de datos | Detecta si las respuestas de texto se basan en el contenido de origen de un usuario. |
| Detección de material protegido | Examina el contenido conocido con derechos de autor |
| Categorías personalizadas | Definir categorías personalizadas para cualquier patrón nuevo o emergente |
Puede encontrar detalles e inicios rápidos para usar la seguridad del contenido de Foundry en las páginas de documentación del servicio.