Freigeben über


Was ist verantwortungsvolle KI?

GILT FÜR:Azure CLI ML-Erweiterung v2 (aktuell)Python SDK azure-ai-ml v2 (aktuell)

Responsible Artificial Intelligence (Responsible AI) ist ein Ansatz zur Entwicklung, Bewertung und Bereitstellung von KI-Systemen sicher, ethisch und mit Vertrauen. KI-Systeme ergeben sich aus vielen Entscheidungen, die von ihren Schöpfern getroffen wurden. Verantwortungsvolle KI hilft, diese Entscheidungen zu leiten – von der Definition des Systemzwecks bis hin zur Benutzerinteraktion – hin zu vorteilhafteren und gerechteren Ergebnissen. Es hält Menschen und ihre Ziele im Mittelpunkt des Designs und respektiert Werte wie Fairness, Zuverlässigkeit und Transparenz.

Microsoft hat einen verantwortungsvollen KI-Standard erstellt, ein Framework für die Erstellung von KI-Systemen basierend auf sechs Prinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Einschließlich, Transparenz und Rechenschaftspflicht. Diese Prinzipien bilden die Grundlage eines verantwortungsvollen und vertrauenswürdigen Ansatzes für KI, insbesondere, wenn intelligente Technologie in alltäglichen Produkten und Dienstleistungen häufiger wird.

In diesem Artikel wird erläutert, wie Azure Machine Learning Tools bereitstellt, mit denen Entwickler und Data Scientists diese sechs Prinzipien implementieren und operationalisieren können.

Diagramm: Sechs Microsoft-Prinzipien für verantwortungsvolle KI: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusion, Transparenz sowie Verantwortlichkeit

Fairness und Inklusion

KI-Systeme sollten jeden fair behandeln und vermeiden, dass ähnliche Gruppen unterschiedlich beeinflusst werden. Wenn KI-Systeme beispielsweise Anleitungen für medizinische Behandlung, Kreditanträge oder Beschäftigung bieten, sollten sie den Menschen mit ähnlichen Symptomen, finanziellen Umständen oder Qualifikationen dieselben Empfehlungen unterbreiten.

Fairness und Inklusion in Azure Machine Learning: Die Fairnessbewertungskomponente des Dashboards "Verantwortungsvolle KI " hilft bei der Bewertung der Modellgerechtigkeit in sensiblen Gruppen wie Geschlecht, EthnischerItät, Alter und anderen Merkmalen.

Zuverlässigkeit und Sicherheit

Um Vertrauen aufzubauen, müssen KI-Systeme zuverlässig, sicher und konsistent arbeiten. Sie sollten so konzipiert funktionieren, sicher auf unerwartete Bedingungen reagieren und schädliche Manipulationen widerstehen. Ihr Verhalten und die Fähigkeit, verschiedene Bedingungen zu verarbeiten, spiegeln die Verschiedenen Situationen wider, die Entwickler während des Entwurfs und Tests erwartet haben.

Zuverlässigkeit und Sicherheit in Azure Machine Learning: Die Fehleranalysekomponente des Verantwortlichen KI-Dashboards hilft Ihnen dabei:

  • Erlangen eines eingehenden Verständnisses für die Verteilung von Fehlern für ein Modell.
  • Identifizieren von Kohorten (Teilmengen) von Daten mit einer höheren Fehlerrate als der Benchmark insgesamt.

Diese Diskrepanzen können auftreten, wenn das System oder das Modell unterformt für bestimmte demografische Gruppen oder für selten beobachtete Eingabebedingungen in den Schulungsdaten.

Transparenz

Wenn KI-Systeme Entscheidungen treffen, die sich auf das Leben von Menschen auswirken, ist es wichtig, dass menschen verstehen, wie diese Entscheidungen getroffen werden. Beispielsweise kann eine Bank ein KI-System verwenden, um zu entscheiden, ob eine Person kreditwürdig ist, oder ein Unternehmen könnte einen verwenden, um Jobkandidaten auszuwählen.

Ein wichtiger Bestandteil der Transparenz ist die Interpretationsfähigkeit: Die Bereitstellung nützlicher Erklärungen des KI-Systemverhaltens. Durch die Verbesserung der Interpretationsfähigkeit können Die Beteiligten verstehen, wie und warum KI-Systeme funktionieren, damit sie Leistungsprobleme, Fairnessbedenken, Ausschlusspraktiken oder unbeabsichtigte Ergebnisse identifizieren können.

Transparenz in Azure Machine Learning: Die Modellinterpretierbarkeit und kontrafaktische Was-wäre-wenn-Komponenten des Verantwortlichen KI-Dashboards helfen dabei, verständliche Beschreibungen von Modellvorhersagen zu generieren.

Die Modellinterpretierbarkeitskomponente bietet mehrere Ansichten im Verhalten eines Modells:

  • Globale Erklärungen. Welche Features wirken sich beispielsweise auf das Gesamtverhalten eines Kreditvergabemodells aus?
  • Lokale Erklärungen. Warum wurde beispielsweise der Kreditantrag eines Kunden genehmigt oder abgelehnt?
  • Modellerklärungen für eine ausgewählte Kohorte von Datenpunkten. Welche Features wirken sich beispielsweise auf das Gesamtverhalten eines Kreditvergabemodells für Antragsteller mit niedrigem Einkommen aus?

Die kontrafaktische Was-wäre-wenn-Komponente hilft Ihnen, ein Machine Learning-Modell zu verstehen und zu debuggen, indem gezeigt wird, wie sie auf Funktionsänderungen und Störungen reagiert.

Azure Machine Learning unterstützt auch eine Scorecard für verantwortungsvolle KI. Die Scorecard ist ein anpassbarer PDF-Bericht, den Entwickler konfigurieren, generieren, herunterladen und mit technischen und nicht technischen Projektbeteiligten teilen können. Sie hilft Projektbeteiligten über Dataset und Modellintegrität zu informieren, Compliance zu erreichen und Vertrauen aufzubauen. Die Scorecard kann auch Überwachungsüberprüfungen unterstützen, indem sie merkmale des maschinellen Lernens erkennen.

Datenschutz und -sicherheit

Da KI häufiger wird, ist der Schutz der Privatsphäre und der Sicherung persönlicher und geschäftlicher Informationen wichtiger und komplexer. Datenschutz und Datensicherheit erfordern eine enge Aufmerksamkeit, da KI-Systeme Daten benötigen, um genaue Vorhersagen und Entscheidungen zu treffen. KI-Systeme müssen datenschutzrechtlichen Bestimmungen entsprechen, die folgende Anforderungen stellen:

  • Transparenz im Hinblick auf die Sammlung, Verwendung und Speicherung von Daten.
  • Bereitstellen geeigneter Steuerelemente für Verbraucher, damit diese auswählen können, wie ihre Daten verwendet werden.

Datenschutz und Sicherheit in Azure Machine Learning: Mit Azure Machine Learning können Administratoren und Entwickler sichere Konfigurationen erstellen , die den Unternehmensrichtlinien entsprechen. Mit Azure Machine Learning und der Azure-Plattform können Sie:

  • Einschränken des Zugriffs auf Ressourcen und Vorgänge nach Benutzerkonto oder Gruppe
  • Einschränken der eingehenden und ausgehenden Netzwerkkommunikation
  • Verschlüsseln von Daten während der Übertragung und im Ruhezustand
  • Überprüfen auf Sicherheitsrisiken
  • Anwenden und Überwachen von Konfigurationsrichtlinien

Microsoft hat außerdem zwei Open-Source-Pakete erstellt, um Datenschutz- und Sicherheitsprinzipien zu implementieren:

  • SmartNoise: Differential Privacy umfasst eine Reihe von Systemen und Methoden, die dazu beitragen, die Daten von Einzelpersonen sicher und privat zu halten. In Machine Learning-Lösungen kann Differential Privacy erforderlich sein, um die Einhaltung gesetzlicher Bestimmungen zu gewährleisten. SmartNoise ist ein Open-Source-Projekt (mitentwickelt von Microsoft), das Komponenten für den Aufbau globaler Differential Privacy-Systeme umfasst.

  • Counterfit: Counterfit ist ein Open-Source-Projekt, das ein Befehlszeilentool und eine generische Automatisierungsebene umfasst, mit der Entwickler Cyberangriffe auf KI-Systeme simulieren können. Das Tool steht zum freien Download zur Verfügung und kann über Azure Cloud Shell im Browser ausgeführt oder lokal in einer Anaconda Python-Umgebung bereitgestellt werden. Es kann KI-Modelle bewerten, die in verschiedenen Cloudumgebungen, lokal oder im Edge gehostet werden. Das Tool ist unabhängig von KI-Modellen und unterstützt verschiedene Datentypen, darunter Text, Bilder oder generische Eingaben.

Verantwortlichkeit

Personen, die KI-Systeme entwerfen und bereitstellen, müssen dafür verantwortlich sein, wie diese Systeme funktionieren. Organisationen sollten Branchenstandards verwenden, um Verantwortlichkeitsnormen zu entwickeln. Diese Normen tragen dazu bei, sicherzustellen, dass KI-Systeme nicht die endgültige Autorität für Entscheidungen sind, die das Leben von Menschen betreffen und dass der Mensch eine sinnvolle Kontrolle über hoch autonome Systeme aufrecht erhält.

Verantwortlichkeit in Azure Machine Learning: Machine Learning Operations (MLOps) basiert auf DevOps-Prinzipien und -Methoden, die die Effizienz von KI-Workflows verbessern. Azure Machine Learning bietet diese MLOps-Funktionen für eine bessere Verantwortlichkeit:

  • Registrieren, Verpacken und Bereitstellen von Modellen von überall aus. Sie können auch die zugehörigen Metadaten nachverfolgen, die für die Verwendung des Modells erforderlich sind.
  • Erfassen der Governancedaten für den vollständigen Machine Learning-Lebenszyklus. Die protokollierten Informationen zur Herkunft können umfassen, wer die Modelle veröffentlicht, warum Änderungen vorgenommen wurden und wann die Modelle bereitgestellt oder in der Produktionsumgebung verwendet wurden.
  • Aktivieren von Benachrichtigungen und Warnungen im Machine Learning-Lebenszyklus. Beispiele für Ereignisse sind der Abschluss von Experimenten, die Registrierung und Implementierung von Modellen sowie die Erkennung von Datendrift.
  • Überwachen von Anwendungen auf betriebsbezogene Probleme und Probleme im Zusammenhang mit maschinellem Lernen. Vergleichen Sie Modelleingaben zwischen Trainings- und Rückschlussphase, untersuchen Sie modellspezifische Metriken, und stellen Sie Überwachungsfunktionen und Warnungen für Ihre Machine Learning-Infrastruktur bereit.

Darüber hinaus schafft die Verantwortliche KI-Scorecard in Azure Machine Learning Verantwortlichkeit, indem cross-stakeholder-kommunikation ermöglicht wird. Die Scorecard ermöglicht Entwicklern, Modellintegritätserkenntnisse sowohl mit technischen als auch nicht technischen Beteiligten zu konfigurieren, herunterzuladen und gemeinsam zu nutzen. Durch die Freigabe dieser Erkenntnisse können Sie Vertrauen schaffen.

Azure Machine Learning unterstützt auch die Entscheidungsfindung, indem Geschäftsentscheidungen über Folgendes informiert werden:

  • Datengesteuerte Erkenntnisse, die den Beteiligten helfen, kausale Behandlungseffekte auf Ergebnisse zu verstehen, die nur historische Daten verwenden. Beispiel: "Wie wirkt sich ein Medikament auf den Blutdruck eines Patienten aus?" Diese Erkenntnisse stammen aus der kausalen Ableitungskomponente des Verantwortlichen KI-Dashboards.
  • Modellgesteuerte Einblicke, die Benutzerfragen beantworten (z. B. "Was kann ich tun, um ein anderes Ergebnis von Ihrer KI beim nächsten Mal zu erhalten?"), damit sie Maßnahmen ergreifen können. Diese Erkenntnisse werden über die kontrafaktische Was-wäre-wenn-Komponente des Verantwortlichen KI-Dashboards bereitgestellt.

Nächste Schritte