Odpowiedzialne używanie sztucznej inteligencji
Uwaga / Notatka
Aby uzyskać więcej szczegółów, zobacz kartę Tekst i obrazy .
Zasady odpowiedzialnego używania sztucznej inteligencji obejmują:
| Principle | Description |
|---|---|
Bezstronność |
Modele sztucznej inteligencji są trenowane przy użyciu danych, które są zwykle pozyskiwane i wybierane przez ludzi. Istnieje duże ryzyko, że kryteria wyboru danych lub same dane odzwierciedlają nieświadome stronniczość , które mogą spowodować, że model generuje dyskryminujące dane wyjściowe. Deweloperzy sztucznej inteligencji muszą zadbać o zminimalizowanie stronniczości w zakresie trenowania danych i testowania systemów sztucznej inteligencji w celu zapewnienia sprawiedliwości. |
Niezawodność i bezpieczeństwo |
Sztuczna inteligencja jest oparta na modelach probabilistycznych, ale nie jest nieosiągalna. Aplikacje oparte na sztucznej inteligencji muszą uwzględniać te elementy i odpowiednio ograniczać ryzyko. |
Prywatność i bezpieczeństwo |
Modele są trenowane przy użyciu danych, które mogą obejmować dane osobowe. Deweloperzy sztucznej inteligencji ponoszą odpowiedzialność za zapewnienie bezpieczeństwa danych szkoleniowych i że same wytrenowane modele nie mogą być używane do ujawniania prywatnych danych osobistych ani organizacyjnych. |
Inkluzywność |
Potencjał sztucznej inteligencji w celu poprawy życia i sukcesu powinien być otwarty dla wszystkich. Deweloperzy sztucznej inteligencji powinni dążyć do zapewnienia, że ich rozwiązania nie wykluczają niektórych użytkowników. |
Przezroczystość |
Sztuczna inteligencja może czasami wydawać się "magią", ale ważne jest, aby użytkownicy wiedzieli, jak działa system i jakie mogą mieć potencjalne ograniczenia. |
Rozliczalność |
Ostatecznie osoby i organizacje, które opracowują i rozpowszechniają rozwiązania sztucznej inteligencji, są rozliczane za swoje działania. Ważne jest, aby organizacje opracowujące modele i aplikacje sztucznej inteligencji definiowały i stosować ramy ładu, aby zapewnić stosowanie zasad odpowiedzialnej sztucznej inteligencji do ich pracy. |
Przykłady odpowiedzialnej sztucznej inteligencji
Przykładowe scenariusze, w których należy zastosować praktyki odpowiedzialnego używania sztucznej inteligencji, obejmują:
- System przyjęć uczelni oparty na sztucznej inteligencji powinien zostać przetestowany w celu zapewnienia, że ocenia wszystkie aplikacje sprawiedliwie, uwzględniając odpowiednie kryteria akademickie, ale unikając bezpodstawnej dyskryminacji na podstawie nieistotnych czynników demograficznych.
- Oparte na sztucznej inteligencji rozwiązanie robota, które używa przetwarzania obrazów do wykrywania obiektów, powinno unikać niezamierzonych szkód lub uszkodzeń. Jednym ze sposobów osiągnięcia tego celu jest użycie wartości prawdopodobieństwa w celu określenia "ufności" w identyfikacji obiektu przed interakcją z obiektami fizycznymi i uniknięcia jakiejkolwiek akcji, jeśli poziom ufności jest niższy od określonego progu.
- System identyfikacji twarzy używany na lotnisku lub w innym bezpiecznym obszarze powinien usuwać obrazy osobiste, które są używane do tymczasowego dostępu, gdy tylko nie są już wymagane. Ponadto zabezpieczenia powinny uniemożliwić udostępnianie obrazów operatorom lub użytkownikom, którzy nie muszą ich wyświetlać.
- Agent sztucznej inteligencji, który oferuje interakcję opartą na mowie, powinien również generować napisy tekstowe, aby uniknąć nieużywalności systemu dla użytkowników z wadą słuchu.
- Bank, który korzysta z aplikacji do zatwierdzania pożyczek opartych na sztucznej inteligencji, powinien ujawnić użycie sztucznej inteligencji i opisać funkcje danych, na których została wytrenowana (bez ujawniania poufnych informacji).