Verantwortungsvolle KI
Es ist wichtig, dass Fachkräfte in der Softwareentwicklung die Auswirkungen ihrer Software auf Benutzende und die Gesellschaft im Allgemeinen berücksichtigen; einschließlich Überlegungen zur verantwortungsvollen Verwendung. Wenn die Anwendung mit künstlicher Intelligenz ausgestattet ist, sind diese Überlegungen besonders wichtig, denn KI-Systeme arbeiten und treffen ihre Entscheidungen oft auf der Grundlage probabilistischer Modelle, die wiederum von den Daten abhängen, mit denen sie trainiert wurden.
Die menschenähnliche Natur von KI-Lösungen ist ein bedeutender Vorteil für die Benutzerfreundlichkeit von Anwendungen, kann aber auch dazu führen, dass Benutzer zu großes Vertrauen in die Fähigkeit der Anwendung fassen, dass sie korrekte Entscheidungen trifft. Das Risiko von Schäden für Einzelpersonen oder Gruppen durch fehlerhafte Vorhersagen oder den Missbrauch von KI-Funktionen ist eins der Hauptbedenken, und Softwaretechniker, die KI-fähige Lösungen erstellen, sollten angemessene Überlegungen anstellen, um Risiken zu mindern und Fairness, Zuverlässigkeit und ausreichenden Schutz vor Schäden oder Diskriminierung sicherzustellen.
Lassen Sie uns einige grundlegende Prinzipien verantwortungsvoller KI, die bei Microsoft eingeführt wurden, besprechen.
Fairness
KI-Systeme sollten alle Menschen fair behandeln. Angenommen, Sie erstellen ein Modell für maschinelles Lernen für eine Anwendung für eine Bank, über die Kredite genehmigt werden. Das Modell soll ohne Voreingenommenheiten zum Geschlecht, zur ethnischen Zugehörigkeit oder anderen Faktoren, die bestimmten Antragstellergruppen unfaire Vor- oder Nachteile verschaffen können, Vorhersagen zur Kreditvergabe zu treffen.
Fairness von Machine Learning-Systemen ist ein sehr aktiver Bereich der laufenden Forschung, und es gibt einige Softwarelösungen zur Bewertung, Quantifizierung und Abmilderung von Unfairness in Machine Learning-Modellen. Tools allein sind jedoch nicht ausreichend, um Fairness sicherzustellen. Berücksichtigen Sie Fairness vom Anfang des Anwendungsentwicklungsprozesses an. Überprüfen Sie die Trainingsdaten sorgfältig, um sicherzustellen, dass sie für alle potenziell betroffenen Personen repräsentativ sind, und bewerten Sie die Vorhersageleistung für Unterabschnitte Ihrer Benutzerpopulation während des gesamten Entwicklungslebenszyklus.
Zuverlässigkeit und Sicherheit
KI-Systeme sollten sicher und zuverlässig arbeiten. Stellen Sie sich beispielsweise ein KI-basiertes Softwaresystem für ein autonomes Fahrzeug oder ein Modell für maschinelles Lernen vor, das Patientensymptome diagnostiziert und Medikamente empfiehlt. Wenn solche Systeme unzuverlässig sind, kann dies eine große Gefahr für das Leben der betreffenden Menschen darstellen.
Wie bei jeder Software muss die Entwicklung von KI-basierten Softwareanwendungen strengen Prozessen für Tests und die Bereitstellungsverwaltung unterzogen werden, um sicherzustellen, dass die Anwendungen bereits vor der Veröffentlichung wie erwartet funktionieren. Darüber hinaus müssen Softwareentwickler die probabilistische Natur von Machine Learning-Modellen berücksichtigen und geeignete Schwellenwerte anwenden, wenn Konfidenzbewertungen für Vorhersagen ausgewertet werden.
Datenschutz und Sicherheit
KI-Systeme sollten sicher sein und die Privatsphäre schützen. Die Modelle für maschinelles Lernen, auf denen KI-Systeme basieren, benötigen große Datenmengen, die möglicherweise persönliche Informationen enthalten, die geheim gehalten werden müssen. Auch nachdem Modelle trainiert wurden und sich das System in der Produktion befindet, verwenden es neue Daten, um Vorhersagen zu treffen oder Maßnahmen zu ergreifen, die Datenschutz- oder Sicherheitsbedenken unterliegen können. Daher müssen geeignete Sicherheitsmaßnahmen zum Schutz von Daten und Kundeninhalten implementiert werden.
Inklusivität
KI-Systeme sollten alle Menschen berücksichtigen und einbeziehen. Jeder sollte von KI profitieren, unabhängig von körperlichen Fähigkeiten, dem Geschlecht, der sexuellen Orientierung, der ethnischen Zugehörigkeit oder anderen Faktoren.
Eine Möglichkeit, um hinsichtlich Inklusion zu optimieren, besteht in der Sicherstellung, dass der Entwurf, die Entwicklung und das Testen Ihrer Anwendung Eingaben von einer so diversen wie möglichen Gruppe von Personen enthält.
Transparenz
KI-Systeme sollten verständlich sein. Benutzer sollten umfassend über den Zweck des Systems, seine Funktionsweise und die zu erwartenden Einschränkungen informiert werden.
Wenn ein KI-System beispielsweise auf einem Machine Learning-Modell basiert, sollten Sie die Benutzer generell auf Faktoren aufmerksam machen, die sich auf die Genauigkeit seiner Vorhersagen auswirken können, z. B. die Anzahl der Fälle, die zum Trainieren des Modells verwendet wurden, oder die spezifischen Merkmale, die den größten Einfluss auf seine Vorhersagen haben. Sie sollten auch Informationen zur Konfidenzbewertung für Vorhersagen teilen.
Wenn eine KI-Anwendung auf personenbezogenen Daten basiert, z. B. ein Gesichtserkennungssystem, das Bilder von Personen zu deren Erkennung verwendet, sollten Sie dem Benutzer klar machen, wie seine Daten verwendet und aufbewahrt werden und wer Zugriff darauf hat.
Verantwortlichkeit
Für KI-Systeme sollten Menschen verantwortlich sein. Obwohl viele KI-Systeme autonom zu arbeiten scheinen, liegt es letztendlich in der Verantwortung der Entwickler, die die von ihnen eingesetzten Modelle trainiert und überprüft sowie die Logik definiert haben, die Entscheidungen auf Modellvorhersagen basiert, um sicherzustellen, dass das Gesamtsystem die Anforderungen an die Verantwortlichkeit erfüllt. Um beim Erreichen dieses Ziels zu helfen, sollten Designer und Entwickler von KI-basierten Lösungen ein Framework aus Governance- und Organisationsrichtlinien verwenden, die sicherstellen, dass die Lösung verantwortungsvollen und rechtlichen Standards entspricht, die klar definiert sind.
Tipp
Weitere Informationen zu den Prinzipien von Microsoft für die verantwortungsvolle KI finden Sie auf der microsoft verantwortlichen KI-Website.