Gerenciar uma solução de IA de geração responsável
Depois de mapear possíveis danos, desenvolver uma maneira de medir sua presença e implementar mitigações para eles em sua solução, você pode se preparar para liberar sua solução. Antes de fazer isso, há algumas considerações que podem ajudá-lo a garantir um lançamento bem-sucedido e operações posteriores.
Concluir revisões de pré-lançamento
Antes de lançar uma solução de IA gerativa, identifique os vários requisitos de conformidade em sua organização e setor e verifique se as equipes apropriadas têm a oportunidade de examinar o sistema e sua documentação. As revisões de conformidade comuns incluem:
- Jurídico
- Privacidade
- Segurança
- Acessibilidade
Implementar e operar a solução
Um lançamento bem-sucedido requer algum planejamento e preparação. Considere as seguintes diretrizes:
- Crie um plano de entrega em fases que permite que você libere a solução inicialmente para um grupo restrito de usuários. Essa abordagem permite que você colete comentários e identifique problemas antes de liberar para um público mais amplo.
- Crie um plano de resposta a incidentes que inclua estimativas do tempo necessário para responder a incidentes inesperados.
- Crie um plano de reversão que define as etapas para reverter a solução para um estado anterior se ocorrer um incidente.
- Implemente a capacidade de bloquear imediatamente as respostas prejudiciais do sistema quando elas forem descobertas.
- Implemente um recurso para bloquear usuários, aplicativos ou endereços IP do cliente específicos em caso de uso indevido do sistema.
- Implemente uma maneira de os usuários fornecerem comentários e relatarem problemas. Em particular, permitir que os usuários relatem o conteúdo gerado como "impreciso", "incompleto", "prejudicial", "ofensivo" ou problemático.
- Acompanhe os dados de telemetria que permitem determinar a satisfação do usuário e identificar lacunas funcionais ou desafios de usabilidade. A telemetria coletada deve estar em conformidade com as leis de privacidade e as políticas e compromissos da sua própria organização com a privacidade do usuário.
Utilizar a Segurança de Conteúdo do Microsoft Foundry
Vários recursos de IA do Azure fornecem análise interna do conteúdo com o qual trabalham, incluindo Linguagem, Visão e OpenAI do Azure usando filtros de conteúdo.
A Segurança de Conteúdo do Microsoft Foundry fornece mais recursos com foco em manter a IA e os co-pilotos seguros contra riscos. Esses recursos incluem a detecção de linguagem inadequada ou ofensiva, tanto da entrada quanto da geração, e a detecção de entradas arriscadas ou inadequadas.
Os recursos na Segurança de Conteúdo do Foundry incluem:
| Característica | Funcionalidade |
|---|---|
| Proteções de prompt | Verifica o risco de ataques de entrada do usuário em modelos de linguagem |
| Detecção de fundamentação | Detecta se as respostas de texto estão fundamentadas no conteúdo de origem de um usuário |
| Detecção de material protegido | Verifica se há conteúdo protegido por direitos autorais conhecido |
| Categorias personalizadas | Definir categorias personalizadas para qualquer padrão novo ou emergente |
Detalhes e guias de início rápido para usar o Foundry Content Safety podem ser encontrados nas páginas de documentação do serviço.