Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel werden Methoden beschrieben, die Sie für die Modellinterpretierbarkeit in Azure Machine Learning verwenden können.
Warum die Interpretierbarkeit von Modellen für das Debuggen von Modellen wichtig ist
Wenn Sie Machine Learning-Modelle in einer Weise einsetzen, die das Leben von Menschen beeinflusst, ist es von entscheidender Bedeutung zu verstehen, was das Verhalten der Modelle beeinflusst. Interpretierbarkeit hilft bei der Beantwortung von Fragen in Szenarien wie:
- Modell-Debugging: Warum hat mein Modell diesen Fehler gemacht? Wie kann ich mein Modell verbessern?
- Zusammenarbeit zwischen Mensch und KI: Wie kann ich die Entscheidungen des Modells verstehen und ihnen vertrauen?
- Einhaltung gesetzlicher Vorschriften: Erfüllt mein Modell die gesetzlichen Anforderungen?
Die Interpretierbarkeitskomponente des Responsible AI Dashboard trägt zur „Diagnose“-Phase des Modelllebenszyklus-Workflows bei, indem sie für Menschen verständliche Beschreibungen der Vorhersagen eines maschinellen Lernmodells generiert. Es bietet mehrere Einblicke in das Verhalten eines Modells:
- Globale Erläuterungen: Welche Merkmale beeinflussen beispielsweise das Gesamtverhalten eines Kreditvergabemodells?
- Lokale Erklärungen: Warum wurde beispielsweise der Kreditantrag eines Kunden genehmigt oder abgelehnt?
Sie können auch Modellerklärungen für eine ausgewählte Kohorte als Untergruppe von Datenpunkten beobachten. Dieser Ansatz ist wertvoll, wenn Sie beispielsweise die Fairness in Modellvorhersagen für Personen in einer bestimmten demografischen Gruppe bewerten. Die Registerkarte Lokale Erklärung dieser Komponente stellt auch eine vollständige Datenvisualisierung dar, die sich hervorragend für die allgemeine Betrachtung der Daten und die Betrachtung der Unterschiede zwischen korrekten und falschen Vorhersagen jeder Kohorte eignet.
Die Fähigkeiten dieser Komponente werden durch das InterpretML-Paket begründet, das Modellerklärungen generiert.
Verwenden Sie die Interpretierbarkeit, wenn Sie:
- Sie müssen ermitteln, wie vertrauenswürdig die Vorhersagen Ihres KI-Systems sind, indem Sie verstehen, welche Features für die Vorhersagen am wichtigsten sind.
- Gehen Sie an das Debugging Ihres Modells heran, indem Sie es zuerst verstehen und feststellen, ob das Modell gesunde Merkmale oder lediglich falsche Korrelationen verwendet.
- Entdecken Sie potenzielle Quellen von Unfairness, indem Sie verstehen, ob das Modell Vorhersagen auf sensiblen Funktionen oder auf Funktionen basiert, die stark mit ihnen korrelieren.
- Bauen Sie das Vertrauen der Benutzer in die Entscheidungen Ihres Modells auf, indem Sie lokale Erklärungen generieren, um deren Ergebnisse zu veranschaulichen.
- Sie müssen eine gesetzlich vorgeschriebene Überprüfung eines KI-Systems durchführen, um Modelle zu validieren und die Auswirkungen von Modellentscheidungen auf Menschen zu überwachen.
Interpretieren des Modells
Beim maschinellen Lernen sind Funktionen die Datenfelder, die Sie verwenden, um einen Zieldatenpunkt vorherzusagen. Um beispielsweise das Kreditrisiko vorherzusagen, können Sie Datenfelder für Alter, Kontogröße und Kontoalter verwenden. Hier sind Alter, Kontogröße und Kontoalter Funktionen. Die Wichtigkeit der Funktion gibt an, wie sich jedes Datenfeld auf die Vorhersagen des Modells auswirkt. Obwohl Sie beispielsweise das Alter in der Vorhersage stark verwenden, wirken sich die Kontogröße und das Kontoalter möglicherweise nicht wesentlich auf die Vorhersagewerte aus. Durch diesen Prozess können Datenwissenschaftler die resultierenden Vorhersagen so erklären, dass die Beteiligten einen Einblick in die wichtigsten Merkmale des Modells erhalten.
Durch die Verwendung der Klassen und Methoden im Responsible AI-Dashboard und durch die Verwendung von SDK v2 und CLI v2 können Sie:
- Erklären Sie die Modellvorhersage, indem Sie Wichtigkeitswerte der Funktion für das gesamte Modell (globale Erklärung) oder einzelne Datenpunkte (lokale Erklärung) generieren.
- Erzielen Sie die Interpretierbarkeit von Modellen in Datensätzen aus der realen Welt in großem Maßstab.
- Verwenden Sie ein interaktives Visualisierungs-Dashboard, um Muster in Ihren Daten und deren Erklärungen zur Trainingszeit zu entdecken.
Unterstützte Techniken für die Modellinterpretierbarkeit
Das Responsible AI-Dashboard verwendet die in Interpret-Community entwickelten Interpretationstechniken, ein Open-Source-Paket für Python, das zum Training interpretierbarer Modelle dient und dabei hilft, undurchsichtige KI-Systeme zu erklären. Undurchsichtige Modelle sind solche, die keine Informationen zu ihren internen Abläufen liefern.
Interpret-Community dient als Host für die folgenden unterstützten Erklärer und unterstützt derzeit die in den nächsten Abschnitten vorgestellten Interpretierbarkeitstechniken.
Unterstützt im Dashboard für verantwortungsvolle KI in Python SDK v2 und CLI v2
| Technik der Interpretierbarkeit | Beschreibung | Typ |
|---|---|---|
| Mimic Explainer (globales Surrogat) + SHAP-Struktur | Mimic Explainer basiert auf der Idee, globale Surrogatmodelle zu trainieren, um undurchsichtige Box-Modelle nachzuahmen. Ein globales Ersatzmodell ist ein intrinsisch interpretierbares Modell, das darauf trainiert ist, die Vorhersagen jedes Opak-Box-Modells so genau wie möglich zu approximieren. Data Scientists können das Surrogatmodell interpretieren, um Rückschlüsse in Bezug auf das undurchsichtige Modell zu ziehen. Das Responsible AI-Dashboard verwendet LightGBM (LGBMExplainableModel), gepaart mit dem SHAP (SHapley Additive exPlanations) Tree Explainer, der ein spezifischer Explainer für Bäume und Baumensembles ist. Die Kombination aus LightGBM und SHAP-Baum bietet modellunabhängige globale und lokale Erklärungen Ihrer Machine-Learning-Modelle. |
Modellagnostisch |
Unterstützte Techniken für die Modellinterpretierbarkeit bei Textmodellen
| Technik der Interpretierbarkeit | Beschreibung | Typ | Textaufgabe |
|---|---|---|---|
| SHAP-Text | SHAP (SHapley Additive exPlanations) ist eine beliebte Erklärungsmethode für Deep Neural Networks, die Erkenntnisse zum Beitrag der einzelnen Eingabefeatures zu einer bestimmten Vorhersage liefert. Sie basiert auf dem Konzept von Shapley-Werten – einer Methode, um den Beitrag einzelner Spieler*innen in einem kooperativen Spiel zu bestimmen. SHAP wendet dieses Konzept auf die Eingabefeatures eines neuronalen Netzwerks an, indem der durchschnittliche Beitrag jedes Features zur Ausgabe des Modells für alle möglichen Kombinationen von Features berechnet wird. Speziell für Text teilt SHAP Wörter hierarchisch auf, wobei jedes Wort oder Token als Feature behandelt wird. Dies führt zu einer Reihe von Attributionswerten, die die Relevanz jedes Worts oder Tokens für die jeweilige Vorhersage quantifizieren. Die endgültige Attributionszuordnung wird generiert, indem diese Werte als Wärmebild über dem ursprünglichen Textdokument visualisiert werden. SHAP ist eine modellunabhängige Methode und kann verwendet werden, um eine Vielzahl von Deep Learning-Modellen zu erklären – einschließlich Convolutional Neural Networks (CNNs), Recurrent Neural Networks (RNNs) und Transformatoren. Darüber hinaus bietet sie mehrere wünschenswerte Eigenschaften wie Konsistenz, Genauigkeit und Fairness. Dies macht sie zu einer zuverlässigen und interpretierbaren Technik, um den Entscheidungsprozess eines Modells zu verstehen. | Modellunabhängig | Textklassifizierung mit mehreren Klassen, Textklassifizierung mit mehreren Bezeichnungen |
Unterstützte Techniken für die Modellinterpretierbarkeit bei Bildmodellen
| Technik der Interpretierbarkeit | Beschreibung | Typ | Aufgabe für maschinelles Sehen |
|---|---|---|---|
| SHAP für maschinelles Sehen | SHAP (SHapley Additive exPlanations) ist eine beliebte Erklärungsmethode für Deep Neural Networks, die Erkenntnisse zum Beitrag der einzelnen Eingabefeatures zu einer bestimmten Vorhersage liefert. Sie basiert auf dem Konzept von Shapley-Werten – einer Methode, um den Beitrag einzelner Spieler*innen in einem kooperativen Spiel zu bestimmen. SHAP wendet dieses Konzept auf die Eingabefeatures eines neuronalen Netzwerks an, indem der durchschnittliche Beitrag jedes Features zur Ausgabe des Modells für alle möglichen Kombinationen von Features berechnet wird. Speziell für maschinelles Sehen teilt SHAP das Bild hierarchisch auf, wobei Superpixelbereiche des Bilds jeweils als Feature behandelt werden. Dies führt zu einer Reihe von Attributionswerten, die die Relevanz jedes Superpixel- oder Bildbereichs für die jeweilige Vorhersage quantifizieren. Die endgültige Attributionszuordnung wird generiert, indem diese Werte als Wärmebild visualisiert werden. SHAP ist eine modellunabhängige Methode und kann verwendet werden, um eine Vielzahl von Deep Learning-Modellen zu erklären – einschließlich Convolutional Neural Networks (CNNs), Recurrent Neural Networks (RNNs) und Transformatoren. Darüber hinaus bietet sie mehrere wünschenswerte Eigenschaften wie Konsistenz, Genauigkeit und Fairness. Dies macht sie zu einer zuverlässigen und interpretierbaren Technik, um den Entscheidungsprozess eines Modells zu verstehen. | Modellunabhängig | Bildklassifizierung mit mehreren Klassen, Bildklassifizierung mit mehreren Bezeichnungen |
| Geleitete Backpropagation | Die geleitete Backpropagation ist eine beliebte Erklärungsmethode für Deep Neural Networks, die Erkenntnisse zu den gelernten Darstellungen des Modells liefert. Sie generiert eine Visualisierung der Eingabefeatures, die ein bestimmtes Neuron im Modell aktivieren. Hierzu wird der Gradient der Ausgabe in Bezug auf das Eingabebild berechnet. Anders als bei anderen gradientbasierten Methoden wird bei der geleiteten Backpropagation nur eine Backpropagation für positive Gradienten durchgeführt und eine angepasste ReLU-Aktivierungsfunktion verwendet, um sicherzustellen, dass negative Gradienten die Visualisierung nicht beeinflussen. Dies führt zu einer besser interpretierbaren und hochauflösenden Salienzkarte, die die wichtigsten Features des Eingabebilds für eine bestimmte Vorhersage hervorhebt. Die geleitete Backpropagation kann verwendet werden, um eine Vielzahl von Deep Learning-Modellen zu erklären – einschließlich Convolutional Neural Networks (CNNs), Recurrent Neural Networks (RNNs) und Transformatoren. | Automatisiertes maschinelles Lernen (AutoML) | Bildklassifizierung mit mehreren Klassen, Bildklassifizierung mit mehreren Bezeichnungen |
| Geleitetes Grad-CAM | Geleitetes Grad-CAM ist eine beliebte Erklärungsmethode für Deep Neural Networks, die Erkenntnisse zu den gelernten Darstellungen des Modells liefert. Es generiert eine Visualisierung der Eingabefeatures, die am stärksten zu einer bestimmten Ausgabeklasse beitragen. Hierzu wird der gradientbasierte Ansatz der geleiteten Backpropagation mit dem Lokalisierungsansatz von Grad-CAM kombiniert. Bei diesem Verfahren werden die Gradienten der Ausgabeklasse in Bezug auf die Featurezuordnungen des letzten Convolutional Layers im Netzwerk berechnet und anschließend die einzelnen Featurezuordnungen gemäß der Relevanz ihrer Aktivierung für diese Klasse gewichtet. Dadurch entsteht ein hochauflösendes Wärmebild, das die am stärksten unterschiedlichen Regionen des Eingabebilds für die angegebene Ausgabeklasse hervorhebt. Geleitetes Grad-CAM kann verwendet werden, um eine Vielzahl von Deep Learning-Modellen zu erklären – einschließlich Convolutional Neural Networks (CNNs), Recurrent Neural Networks (RNNs) und Transformatoren. Darüber hinaus wird durch die Integration der geleiteten Backpropagation sichergestellt, dass die Visualisierung aussagekräftig und interpretierbar ist, wodurch falsche Aktivierungen und negative Beiträge vermieden werden. | Automatisiertes maschinelles Lernen (AutoML) | Bildklassifizierung mit mehreren Klassen, Bildklassifizierung mit mehreren Bezeichnungen |
| Integrierte Gradienten | Integrierte Gradienten sind eine beliebte Erklärungsmethode für Deep Neural Networks, die Erkenntnisse zum Beitrag der einzelnen Eingabefeatures zu einer bestimmten Vorhersage liefert. Sie berechnet das Integral des Gradienten der Ausgabeklasse in Bezug auf das Eingabebild entlang eines geraden Pfads zwischen einem Baselinebild und dem tatsächlichen Eingabebild. Dieser Pfad wird in der Regel als lineare Interpolation zwischen den beiden Bildern gewählt, wobei die Baseline ein neutrales Bild ohne saliente Features ist. Durch die Integration des Gradienten entlang dieses Pfads bieten integrierte Gradienten ein Maß für den Beitrag der einzelnen Eingabefeatures zur Vorhersage, um eine Attributionszuordnung zu generieren. Diese Karte hebt die einflussreichsten Eingabefeatures hervor und kann verwendet werden, um Erkenntnisse zum Entscheidungsprozess des Modells zu gewinnen. Integrierte Gradienten eignen sich zur Erklärung einer Vielzahl von Deep Learning-Modellen – einschließlich Convolutional Neural Networks (CNNs), Recurrent Neural Networks (RNNs) und Transformatoren. Darüber hinaus ist es eine theoretisch fundierte Technik mit einer Reihe wünschenswerter Eigenschaften wie Empfindlichkeit, Implementierungsbeständigkeit und Vollständigkeit. | Automatisiertes maschinelles Lernen (AutoML) | Bildklassifizierung mit mehreren Klassen, Bildklassifizierung mit mehreren Bezeichnungen |
| XRAI | XRAI ist eine neuartige bereichsbasierte Salienzmethode, die auf integrierten Gradienten (IG) basiert. Sie übersegmentiert das Bild und testet iterativ die Relevanz jeder Region, wobei kleinere Regionen basierend auf Attributionsscores zu größeren Segmenten zusammengefasst werden. Diese Strategie führt zu hochwertigen, eng begrenzten Salienzbereichen, die bestehende Salienztechniken übertreffen. XRAI kann mit jedem DNN-basierten Modell verwendet werden, solange es eine Möglichkeit gibt, die Eingabefeatures mithilfe einer Ähnlichkeitsmetrik in Segmenten zu gruppieren. | Automatisiertes maschinelles Lernen (AutoML) | Bildklassifizierung mit mehreren Klassen, Bildklassifizierung mit mehreren Bezeichnungen |
| D-RISE | D-RISE ist eine modellunabhängige Methode zum Erstellen visueller Erklärungen für die Vorhersagen von Objekterkennungsmodellen. Durch Berücksichtigung der Lokalisierungs- und Kategorisierungsaspekte der Objekterkennung kann D-RISE Salienzkarten erstellen, die Teile eines Bilds hervorheben, die am stärksten zur Vorhersage des Detektors beitragen. Im Gegensatz zu gradientbasierten Methoden ist D-RISE allgemeiner und benötigt keinen Zugriff auf das Innenleben des Objektdetektors. D-RISE benötigt lediglich Zugriff auf die Ein- und Ausgaben des Modells. Die Methode kann auf einstufige Detektoren (z. B. YOLOv3), zweistufige Detektoren (z. B. Faster-RCNN) und Vision Transformers (z. B. DETR, OWL-ViT) angewendet werden. D-RISE erstellt willkürliche Masken des Eingabebilds, um die Salienzkarte bereitzustellen, und sendet sie mit den willkürlichen Masken des Eingabebilds an den Objektdetektor. Durch die Bewertung der Veränderung der Punktzahl des Objektdetektors werden alle Erkennungen mit jeder Maske zusammengefasst und eine endgültige Salienzkarte erstellt. |
Modellunabhängig | Objekterkennung |
Nächste Schritte
- Erfahren Sie, wie Sie das Responsible AI-Dashboard über CLI v2 und SDK v2 oder die Benutzeroberfläche von Azure Machine Learning Studio generieren.
- Erkunden Sie die unterstützten Interpretierbarkeitsvisualisierungen des Responsible AI-Dashboards.
- Erfahren Sie, wie Sie eine Scorecard für verantwortungsvolle KI auf Grundlage der im Dashboard für verantwortungsvolle KI beobachteten Erkenntnisse generieren.