Administración de una solución de IA generativa responsable

Completado

Después de identificar posibles daños, desarrolle una manera de medir su presencia e implemente mitigaciones para ellos en su solución, puede prepararse para lanzar su solución. Antes de hacerlo, hay algunas consideraciones que le ayudarán a garantizar un lanzamiento exitoso y las operaciones posteriores.

Completar revisiones preliminares

Antes de publicar una solución de inteligencia artificial generativa, identifique los distintos requisitos de cumplimiento de la organización y del sector y asegúrese de que los equipos adecuados tienen la oportunidad de revisar el sistema y su documentación. Entre las revisiones de cumplimiento comunes se incluyen las siguientes:

  • Jurídico
  • Privacidad
  • Seguridad
  • Accesibilidad

Desplegar y operar la solución

Una versión exitosa requiere algo de planificación y preparación. Tenga en cuenta las directrices siguientes:

  • Idee un plan de entrega por fases que le permita lanzar la solución inicialmente a un grupo limitado de usuarios. Este enfoque le permite recopilar comentarios e identificar problemas antes de publicarlos a un público más amplio.
  • Cree un plan de respuesta a incidentes que incluya estimaciones del tiempo necesario para responder a incidentes imprevistos.
  • Cree un plan de reversión que defina los pasos para revertir la solución a un estado anterior si se produce un incidente.
  • Implemente la capacidad de bloquear inmediatamente las respuestas perjudiciales del sistema cuando se detecten.
  • Implemente una funcionalidad para bloquear usuarios, aplicaciones o direcciones IP de cliente específicos en caso de uso incorrecto del sistema.
  • Implemente una manera de que los usuarios proporcionen comentarios e informen de problemas. En concreto, permite a los usuarios notificar contenido generado como "inexacto", "incompleto", "dañino", "ofensivo" o problemático.
  • Realice un seguimiento de los datos de telemetría que le permiten determinar la satisfacción del usuario e identificar brechas funcionales o desafíos de facilidad de uso. La telemetría recopilada debe cumplir con las leyes de privacidad y las directivas y los compromisos de su propia organización con respecto a la privacidad del usuario.

Uso de la seguridad del contenido de Microsoft Foundry

Varios recursos de Azure AI proporcionan análisis integrados del contenido con el que trabajan, incluidos Language, Vision y Azure OpenAI mediante filtros de contenido.

Seguridad de contenido de Microsoft Foundry proporciona más características centradas en mantener la inteligencia artificial y los copilotos a salvo del riesgo. Estas características incluyen detectar lenguaje inapropiado u ofensivo, tanto de entrada como generado, así como entradas de riesgo o inapropiadas.

Entre las características de Foundry Content Safety se incluyen las siguientes:

Característica Funcionalidad
Escudos de avisos Examina el riesgo de ataques de entrada de usuario en modelos de lenguaje
Detección de la base de datos Detecta si las respuestas de texto se basan en el contenido de origen de un usuario.
Detección de material protegido Examina el contenido conocido con derechos de autor
Categorías personalizadas Definir categorías personalizadas para cualquier patrón nuevo o emergente

Puede encontrar detalles e inicios rápidos para usar la seguridad del contenido de Foundry en las páginas de documentación del servicio.