Odpowiedzialne używanie sztucznej inteligencji
Ważne jest, aby inżynierowie oprogramowania rozważyli wpływ ich oprogramowania na użytkowników i społeczeństwo w ogóle; w tym zagadnienia dotyczące odpowiedzialnego używania. Gdy aplikacja jest podsycona sztuczną inteligencją, te zagadnienia są szczególnie ważne ze względu na charakter działania systemów sztucznej inteligencji i informowanie o decyzjach; często w oparciu o modele probabilistyczne, które są z kolei zależne od danych, z którymi zostały wytrenowane.
Ludzka natura rozwiązań sztucznej inteligencji jest znaczącą korzyścią w dokonaniu przyjaznej dla użytkownika aplikacji, ale może również prowadzić użytkowników do umieszczenia dużej zaufania w zdolności aplikacji do podejmowania prawidłowych decyzji. Potencjalna szkoda dla osób lub grup poprzez nieprawidłowe przewidywania lub niewłaściwe użycie możliwości sztucznej inteligencji jest głównym problemem, a inżynierowie oprogramowania tworzący rozwiązania z obsługą sztucznej inteligencji powinni zastosować należyte kwestie, aby ograniczyć ryzyko i zapewnić sprawiedliwość, niezawodność i odpowiednią ochronę przed szkodami lub dyskryminacją.
Omówimy niektóre podstawowe zasady dotyczące odpowiedzialnej sztucznej inteligencji, które zostały przyjęte w firmie Microsoft.
Sprawiedliwość
Systemy sztucznej inteligencji powinny traktować wszystkie osoby sprawiedliwie. Załóżmy na przykład, że tworzysz model uczenia maszynowego do obsługi wniosku o zatwierdzenie pożyczki dla banku. Model powinien przewidywać, czy pożyczka powinna zostać zatwierdzona bez uwzględniania stronniczości w oparciu o płeć, pochodzenie etniczne lub inne czynniki, które mogą spowodować nieuczciwą przewagę lub wadę dla określonych grup wnioskodawców.
Sprawiedliwość systemów uczenia maszynowego jest bardzo aktywnym obszarem trwających badań, a niektóre rozwiązania programowe istnieją do oceny, kwantyfikacji i łagodzenia niesprawiedliwości w modelach uczenia maszynowego. Jednak samo narzędzia nie są wystarczające, aby zapewnić sprawiedliwość. Należy wziąć pod uwagę sprawiedliwość od początku procesu tworzenia aplikacji; uważnie przeglądając dane szkoleniowe, aby upewnić się, że jest reprezentatywny dla wszystkich potencjalnie dotkniętych podmiotów i oceniając wydajność predykcyjną podsekcji populacji użytkowników w całym cyklu projektowania.
Niezawodność i bezpieczeństwo
Systemy sztucznej inteligencji powinny działać niezawodnie i bezpiecznie. Rozważmy na przykład system oprogramowania oparty na sztucznej inteligencji dla pojazdu autonomicznego; lub model uczenia maszynowego, który diagnozuje objawy pacjenta i zaleca recepty. Brak odpowiedzialności w tego rodzaju systemie może spowodować znaczne ryzyko dla życia ludzkiego.
Podobnie jak w przypadku dowolnego oprogramowania, tworzenie aplikacji opartych na sztucznej inteligencji musi podlegać rygorystycznym procesom testowania i zarządzania wdrożeniami, aby upewnić się, że działają zgodnie z oczekiwaniami przed wydaniem. Ponadto inżynierowie oprogramowania muszą wziąć pod uwagę probabilistyczny charakter modeli uczenia maszynowego i zastosować odpowiednie progi podczas oceniania wyników ufności dla przewidywań.
Prywatność i zabezpieczenia
Systemy sztucznej inteligencji powinny być bezpieczne i uwzględniać ochronę prywatności. Modele uczenia maszynowego, na których oparte są systemy sztucznej inteligencji, opierają się na dużych ilościach danych, które mogą zawierać dane osobowe, które muszą być przechowywane jako prywatne. Nawet po przeszkoleniu modeli, a system jest w środowisku produkcyjnym, używają nowych danych do przewidywania lub podjęcia działań, które mogą podlegać ochronie prywatności lub obawom dotyczącym bezpieczeństwa; dlatego należy zaimplementować odpowiednie zabezpieczenia w celu ochrony danych i zawartości klienta.
Brak wykluczeń
Systemy sztucznej inteligencji powinny wspierać wszystkich i angażować ludzi. Sztuczna inteligencja powinna przynieść korzyści wszystkim częściom społeczeństwa, niezależnie od zdolności fizycznej, płci, orientacji seksualnej, pochodzenia etnicznego lub innych czynników.
Jednym ze sposobów optymalizacji pod kątem inkluzywności jest zapewnienie, że projekt, programowanie i testowanie aplikacji obejmuje dane wejściowe od tak zróżnicowanej grupy osób, jak to możliwe.
Przezroczystość
Systemy sztucznej inteligencji powinny być zrozumiałe. Użytkownicy powinni być w pełni świadomi przeznaczenia systemu, sposobu jego działania i oczekiwanych ograniczeń.
Na przykład gdy system sztucznej inteligencji jest oparty na modelu uczenia maszynowego, zazwyczaj należy poinformować użytkowników o czynnikach, które mogą mieć wpływ na dokładność prognoz, takich jak liczba przypadków używanych do trenowania modelu lub określonych funkcji, które mają największy wpływ na jego przewidywania. Należy również udostępnić informacje o współczynniku ufności dla przewidywań.
Gdy aplikacja sztucznej inteligencji korzysta z danych osobowych, takich jak system rozpoznawania twarzy, który tworzy obrazy osób, które je rozpoznają; Użytkownik powinien jasno określić sposób ich użycia i przechowywania oraz kto ma do niego dostęp.
Odpowiedzialności
Ludzie powinni być odpowiedzialny za systemy sztucznej inteligencji. Mimo że wiele systemów sztucznej inteligencji wydaje się działać autonomicznie, ostatecznie jest to odpowiedzialność deweloperów, którzy szkolili i weryfikowali używane modele, oraz zdefiniowali logikę, która opiera decyzje na przewidywaniach modelu w celu zapewnienia, że ogólny system spełnia wymagania odpowiedzialności. Aby pomóc w osiągnięciu tego celu, projektanci i deweloperzy rozwiązania opartego na sztucznej inteligencji powinni pracować w ramach zasad ładu i organizacji, które zapewniają, że rozwiązanie spełnia standardy odpowiedzialne i prawne, które są jasno zdefiniowane.
Wskazówka
Aby uzyskać więcej informacji na temat zasad firmy Microsoft dotyczących odpowiedzialnej sztucznej inteligencji, zobacz witrynę odpowiedzialnej sztucznej inteligencji firmy Microsoft.