Partager via


Qu’est-ce que l’IA responsable ?

S’APPLIQUE À :Extension Azure CLI v2 (actuelle)Kit de développement logiciel (SDK) Python azure-ai-ml v2 (version actuelle)

L’intelligence artificielle responsable (IA responsable) est une approche du développement, de l’évaluation et du déploiement de systèmes IA en toute sécurité, éthiquement et avec confiance. Les systèmes IA résultent de nombreuses décisions prises par leurs créateurs. L’IA responsable aide à guider ces décisions, de la définition de l’objectif du système à l’interaction utilisateur, vers des résultats plus bénéfiques et équitables. Il maintient les personnes et leurs objectifs au centre de la conception et respecte les valeurs telles que l’équité, la fiabilité et la transparence.

Microsoft a créé une norme d’IA responsable, une infrastructure pour la création de systèmes IA basés sur six principes : équité, fiabilité et sécurité, confidentialité et sécurité, inclusion, transparence et responsabilité. Ces principes sont la base d’une approche responsable et fiable de l’IA, en particulier lorsque la technologie intelligente devient plus courante dans les produits et services quotidiens.

Cet article explique comment Azure Machine Learning fournit des outils pour aider les développeurs et les scientifiques des données à implémenter et à mettre en œuvre ces six principes.

Diagramme des six principes de l’IA responsable de Microsoft, à savoir équité, fiabilité et sécurité, confidentialité et sécurité, inclusivité, transparence et responsabilité.

Équité et inclusivité

Les systèmes d’IA doivent traiter tout le monde de manière équitable et éviter d’affecter des groupes similaires différemment. Par exemple, lorsque les systèmes d’IA fournissent des conseils sur le traitement médical, les demandes de prêt ou l’emploi, ils doivent faire les mêmes recommandations aux personnes présentant des symptômes similaires, des circonstances financières ou des qualifications.

Équité et inclusion dans Azure Machine Learning : le composant d’évaluation de l’équité du tableau de bord Ia responsable permet d’évaluer l’équité des modèles entre les groupes sensibles, tels que le sexe, l’origine ethnique, l’âge et d’autres caractéristiques.

Fiabilité et sécurité

Pour favoriser la confiance, les systèmes d’IA doivent fonctionner de manière fiable, sécurisée et cohérente. Ils doivent fonctionner comme conçus, répondre en toute sécurité à des conditions inattendues et résister à une manipulation dangereuse. Leur comportement et leur capacité à gérer différentes conditions reflètent la gamme de situations prévues par les développeurs lors de la conception et des tests.

Fiabilité et sécurité dans Azure Machine Learning : le composant d’analyse des erreurs du tableau de bord Ia responsable vous aide à :

  • De comprendre de manière approfondie comment l’échec est distribué pour un modèle
  • D’identifier les cohortes (sous-ensembles) de données avec un taux d’erreur supérieur au taux d’erreur de référence global

Ces écarts peuvent se produire lorsque le système ou le modèle est sous-performant pour des groupes démographiques spécifiques ou pour des conditions d’entrée rarement observées dans les données d’entraînement.

Transparence

Lorsque les systèmes d’IA informent les décisions qui ont un impact sur la vie des personnes, il est essentiel que les gens comprennent comment ces décisions sont prises. Par exemple, une banque peut utiliser un système d’intelligence artificielle pour décider si une personne est digne de crédit, ou une entreprise peut en utiliser une pour sélectionner des candidats à l’emploi.

Une partie cruciale de la transparence est l’interprétabilité : fournir des explications utiles du comportement du système d’IA. L’amélioration de l’interprétabilité aide les parties prenantes à comprendre comment et pourquoi les systèmes d’IA fonctionnent, afin qu’ils puissent identifier les problèmes de performance, les préoccupations d’équité, les pratiques d’exclusion ou les résultats inattendus.

Transparence dans Azure Machine Learning : Les composants d’interprétabilité et de contrefactibilité du modèle du tableau de bord IA responsable permettent de générer des descriptions compréhensibles par l’homme des prédictions de modèle.

Le composant d’interprétabilité du modèle fournit plusieurs vues dans le comportement d’un modèle :

  • Explications globales. Par exemple, quelles caractéristiques affectent le comportement général d’un modèle d’allocation de prêt ?
  • Explications locales. Par exemple, pourquoi la demande de prêt d’un client a été approuvée ou rejetée ?
  • Explications de modèle pour une cohorte sélectionnée de points de données. Par exemple, quelles caractéristiques affectent le comportement global d’un modèle d’allocation de prêt pour les demandeurs à faible revenu ?

Le composant what-if counterfactual vous permet de comprendre et de déboguer un modèle Machine Learning en montrant comment il réagit aux modifications et perturbations des fonctionnalités.

Azure Machine Learning prend également en charge un tableau de bord d’IA responsable. La carte de performance est un rapport PDF personnalisable que les développeurs peuvent configurer, générer, télécharger et partager avec des parties prenantes techniques et non techniques. Il permet d’informer les parties prenantes sur l’intégrité du jeu de données et du modèle, d’obtenir la conformité et de créer une confiance. La carte de performance peut également prendre en charge les révisions d’audit en révélant les caractéristiques du modèle Machine Learning.

Confidentialité et sécurité

À mesure que l’IA devient plus courante, la protection de la confidentialité et la sécurisation des informations personnelles et professionnelles est plus importante et complexe. La confidentialité et la sécurité des données nécessitent une attention particulière, car les systèmes IA ont besoin de données pour prendre des prédictions et des décisions précises. Les systèmes d’IA doivent respecter les lois relatives à la confidentialité qui :

  • Exigent une transparence sur la collecte, l’utilisation et le stockage des données.
  • Imposent que les consommateurs disposent de contrôles appropriés pour choisir la façon dont leurs données sont utilisées.

Confidentialité et sécurité dans Azure Machine Learning : Azure Machine Learning permet aux administrateurs et aux développeurs de créer des configurations sécurisées conformes aux stratégies d’entreprise. Avec Azure Machine Learning et la plateforme Azure, vous pouvez :

  • Limiter l’accès aux ressources et aux opérations par compte d’utilisateur ou par groupe.
  • Limiter les communications réseau entrantes et sortantes.
  • Chiffrer des données en transit et au repos.
  • Analyser les vulnérabilités.
  • Appliquer et auditer des stratégies de configuration.

Microsoft a également créé deux packages open source pour aider à implémenter des principes de confidentialité et de sécurité :

  • SmartNoise : La confidentialité différentielle est un ensemble de systèmes et pratiques qui permettent de préserver la sécurité et la confidentialité des données des personnes. Dans les solutions de Machine Learning, une confidentialité différentielle peut être requise en lien avec la conformité réglementaire. SmartNoise est un projet open source (co-développé par Microsoft) contenant des composants pour la création de systèmes globaux assortis d’une confidentialité différentielle.

  • Counterfit : Counterfit est un projet open-source qui comprend un outil en ligne de commande et une couche d’automatisation générique pour permettre aux développeurs de simuler des cyber-attaques contre des systèmes d’IA. Tout le monde peut télécharger l’outil et le déployer par le biais d’Azure Cloud Shell pour une exécution dans un navigateur ou le déployer localement dans un environnement Anaconda Python. Il peut évaluer les modèles IA hébergés dans différents environnements cloud, locaux ou en périphérie. L’outil est agnostique aux modèles IA et prend en charge différents types de données, notamment du texte, des images ou des entrées génériques.

Responsabilité

Les personnes qui conçoivent et déploient des systèmes IA doivent être responsables de la façon dont ces systèmes fonctionnent. Les organisations doivent utiliser des normes du secteur pour élaborer des normes de responsabilité. Ces normes permettent de s’assurer que les systèmes d’IA ne sont pas l’autorité finale sur les décisions qui affectent la vie des personnes et que les humains conservent un contrôle significatif sur les systèmes hautement autonomes.

La responsabilité dans Azure Machine Learning : les opérations Machine Learning (MLOps) reposent sur des principes et pratiques DevOps qui améliorent l’efficacité du flux de travail d’INTELLIGENCE artificielle. Azure Machine Learning fournit ces fonctionnalités MLOps pour améliorer la responsabilité :

  • Inscrire, empaqueter et déployer des modèles à partir de n’importe quel emplacement. Vous pouvez également suivre les métadonnées associées requises pour utiliser le modèle.
  • Capturer les données de gouvernance nécessaires pour le cycle de vie Machine Learning de bout en bout. Les informations de traçabilité journalisées peuvent inclure qui publie des modèles, pourquoi des modifications ont été apportées et quand les modèles ont été déployés ou utilisés en production.
  • Notifier et alerter sur des événements du cycle de vie Machine Learning. Par exemple, la fin d’une expérience, l’inscription de modèles, le déploiement de modèles et la détection d’une dérive de données.
  • Superviser les applications pour déterminer si elles sont affectées par des problèmes opérationnels ou liés au Machine Learning. Comparer les entrées de modèle entre l’apprentissage et l’inférence, explorer les métriques spécifiques du modèle, et fournir une surveillance et des alertes pour votre infrastructure d’apprentissage automatique.

En outre, la carte de performance d’IA responsable dans Azure Machine Learning crée une responsabilité en activant la communication entre parties prenantes. La carte de performance permet aux développeurs de configurer, télécharger et partager des insights d’intégrité de modèle avec des parties prenantes techniques et non techniques. Le partage de ces insights permet de créer une confiance.

Azure Machine Learning prend également en charge la prise de décision en informant les décisions d’entreprise par le biais des points suivants :

  • Insights pilotés par les données, qui aident les parties prenantes à comprendre les effets de traitement causal sur les résultats à l’aide de données historiques uniquement. Par exemple, « Comment un médicament affecterait-il la pression artérielle d’un patient ? » Ces insights proviennent du composant d’inférence causale du tableau de bord Ia responsable.
  • Insights pilotés par modèle, qui répondent aux questions des utilisateurs (par exemple, « Que puis-je faire pour obtenir un résultat différent de votre IA la prochaine fois ? ») afin qu’ils puissent prendre des mesures. Ces insights sont fournis par le biais du composant de configuration du systèmed’intelligence artificielle responsable.

Étapes suivantes