Gérer une solution d’INTELLIGENCE artificielle responsable

Effectué

Une fois que vous avez mappé des dommages potentiels, développez un moyen de mesurer leur présence et d’implémenter des atténuations pour eux dans votre solution, vous pouvez être prêt à libérer votre solution. Avant de le faire, il existe des considérations qui vous aident à garantir une mise en production réussie et les opérations suivantes.

Terminer les revues préliminaires

Avant de publier une solution d’IA générative, identifiez les différentes exigences de conformité de votre organisation et de votre secteur et assurez-vous que les équipes appropriées ont la possibilité de passer en revue le système et sa documentation. Les révisions de conformité courantes sont les suivantes :

  • Informations légales
  • Vie privée
  • Sécurité
  • Accessibilité

Libérer et utiliser la solution

Une mise en production réussie nécessite une certaine planification et préparation. Tenez compte des recommandations suivantes :

  • Concevez un plan de remise par phases qui vous permet de libérer la solution initialement pour un groupe restreint d’utilisateurs. Cette approche vous permet de recueillir des commentaires et d’identifier les problèmes avant de les publier à un public plus large.
  • Créez un plan de réponse aux incidents qui inclut des estimations du temps nécessaire pour répondre aux incidents imprévus.
  • Créez un plan de restauration qui définit les étapes permettant de rétablir la solution à un état précédent si un incident se produit.
  • Implémentez la fonctionnalité pour bloquer immédiatement les réponses système dangereuses lorsqu’elles sont découvertes.
  • Implémentez une fonctionnalité permettant de bloquer des utilisateurs, des applications ou des adresses IP clientes spécifiques en cas d’utilisation incorrecte du système.
  • Implémentez un moyen pour les utilisateurs de fournir des commentaires et signaler des problèmes. En particulier, permettre aux utilisateurs de signaler le contenu généré comme « incorrect », « incomplet », « dangereux », « offensant » ou autrement problématique.
  • Suivez les données de télémétrie qui vous permettent de déterminer la satisfaction des utilisateurs et d’identifier les lacunes fonctionnelles ou les défis de facilité d’utilisation. Les données de télémétrie collectées doivent respecter les lois relatives à la confidentialité et les politiques et engagements de votre organisation en matière de confidentialité des utilisateurs.

Utiliser la sécurité du contenu Microsoft Foundry

Plusieurs ressources Azure AI fournissent une analyse intégrée du contenu avec lequel elles fonctionnent, notamment Language, Vision et Azure OpenAI à l’aide de filtres de contenu.

Microsoft Foundry Content Safety offre davantage de fonctionnalités qui se concentrent sur la sécurité de l’IA et des copilotes contre les risques. Ces fonctionnalités incluent la détection d'une langue inappropriée ou offensante, provenant d'une entrée ou d'un contenu généré, et la détection des entrées risquées ou inappropriées.

Les fonctionnalités de la sécurité du contenu Foundry sont les suivantes :

Caractéristique Fonctionnalité
Boucliers d’invite Analyse du risque d’attaques d’entrée utilisateur sur les modèles de langage
Détection de contenu fondé Détecte si les réponses de texte sont ancrées dans le contenu source d’un utilisateur
Détection de matériel protégé Recherche le contenu protégé par copyright connu
Catégories personnalisées Définir des catégories personnalisées pour tous les modèles nouveaux ou émergents

Vous trouverez des détails et des guides de démarrage rapide pour l’utilisation de Foundry Content Safety dans les pages de documentation du service.