Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
DOTYCZY:
Rozszerzenie interfejsu wiersza polecenia platformy Azure w wersji 2 (current)
Zestaw PYTHON SDK azure-ai-ml v2 (bieżąca)
Odpowiedzialne sztuczna inteligencja (Responsible AI) to podejście do opracowywania, oceniania i wdrażania systemów sztucznej inteligencji bezpiecznie, etycznie i z zaufaniem. Systemy sztucznej inteligencji wynikają z wielu decyzji podjętych przez ich twórców. Odpowiedzialne używanie sztucznej inteligencji pomaga kierować tymi decyzjami — od definiowania celu systemu po interakcję z użytkownikiem — w kierunku bardziej korzystnych i sprawiedliwych wyników. Utrzymuje ludzi i ich cele w centrum projektowania i szanuje wartości, takie jak sprawiedliwość, niezawodność i przejrzystość.
Firma Microsoft stworzyła standard odpowiedzialnej sztucznej inteligencji, czyli platformę służącą do tworzenia systemów sztucznej inteligencji na podstawie sześciu zasad: sprawiedliwości, niezawodności i bezpieczeństwa, prywatności i bezpieczeństwa, inkluzywności, przejrzystości i odpowiedzialności. Te zasady są podstawą odpowiedzialnego i godnego zaufania podejścia do sztucznej inteligencji, zwłaszcza gdy inteligentna technologia staje się bardziej powszechna w codziennych produktach i usługach.
W tym artykule wyjaśniono, w jaki sposób usługa Azure Machine Learning udostępnia narzędzia ułatwiające deweloperom i analitykom danych implementowanie i operacjonalizacja tych sześciu zasad.
Sprawiedliwość i inkluzywność
Systemy sztucznej inteligencji powinny traktować wszystkich sprawiedliwie i unikać wpływania na podobne grupy inaczej. Na przykład gdy systemy sztucznej inteligencji zawierają wskazówki dotyczące leczenia, wniosków o pożyczkę lub zatrudnienia, powinny one zawierać te same zalecenia dla osób z podobnymi objawami, okolicznościami finansowymi lub kwalifikacjami.
Sprawiedliwość i inkluzywność w usłudze Azure Machine Learning: składnik oceny sprawiedliwościpulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji pomaga ocenić sprawiedliwość modelu w grupach poufnych, takich jak płeć, pochodzenie etniczne, wiek i inne cechy.
Niezawodność i bezpieczeństwo
Aby zapewnić zaufanie, systemy sztucznej inteligencji muszą działać niezawodnie, bezpiecznie i spójnie. Powinny działać zgodnie z projektem, bezpiecznie reagować na nieoczekiwane warunki i oprzeć się szkodliwej manipulacji. Ich zachowanie i zdolność do obsługi różnych warunków odzwierciedlają zakres sytuacji, które deweloperzy przewidywali podczas projektowania i testowania.
Niezawodność i bezpieczeństwo w usłudze Azure Machine Learning: składnik analizy błędówpulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji ułatwia:
- Dowiedz się, jak awaria jest dystrybuowana dla modelu.
- Zidentyfikuj kohorty (podzestawy) danych z wyższym współczynnikiem błędów niż ogólny test porównawczy.
Te rozbieżności mogą wystąpić, gdy system lub model nie spełnia określonych grup demograficznych lub rzadko obserwowanych warunków wejściowych w danych treningowych.
Przezroczystość
Gdy systemy sztucznej inteligencji informują o decyzjach mających wpływ na życie ludzi, ważne jest, aby ludzie zrozumieli, jak te decyzje są podejmowane. Na przykład bank może użyć systemu sztucznej inteligencji, aby zdecydować, czy dana osoba jest godna kredytu, czy firma może użyć jednego do wyboru kandydatów do pracy.
Kluczową częścią przejrzystości jest możliwość interpretacji: udostępnianie przydatnych wyjaśnień dotyczących zachowania systemu sztucznej inteligencji. Poprawa możliwości interpretacji pomaga uczestnikom projektu zrozumieć, jak i dlaczego działają systemy sztucznej inteligencji, dzięki czemu mogą identyfikować problemy z wydajnością, wątpliwości dotyczące sprawiedliwości, praktyki wykluczające lub niezamierzone wyniki.
Przejrzystość w usłudze Azure Machine Learning: możliwość interpretowania modelu i przeciwdziałanie składnikom analizy warunkowejpulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji ułatwiają generowanie zrozumiałych przez człowieka opisów przewidywań modelu.
Składnik możliwości interpretacji modelu zawiera kilka widoków na zachowanie modelu:
- Wyjaśnienia globalne. Na przykład jakie funkcje wpływają na ogólne zachowanie modelu alokacji pożyczki?
- Wyjaśnienia lokalne. Na przykład dlaczego wniosek o pożyczkę klienta został zatwierdzony lub odrzucony?
- Objaśnienia modelu dla wybranej kohorty punktów danych. Na przykład jakie funkcje wpływają na ogólne zachowanie modelu alokacji kredytów dla wnioskodawców o niskich dochodach?
Składnik warunkowy analizy co-jeżeli pomaga zrozumieć i debugować model uczenia maszynowego, pokazując, jak reaguje na zmiany funkcji i perturbacje.
Usługa Azure Machine Learning obsługuje również kartę wyników odpowiedzialnej sztucznej inteligencji. Karta wyników to dostosowywalny raport PDF, który deweloperzy mogą konfigurować, generować, pobierać i udostępniać osobom biorącym udział w projekcie technicznym i nietechnalnym. Pomaga to edukować uczestników projektu na temat kondycji zestawu danych i modelu, osiągać zgodność i budować zaufanie. Karta wyników może również obsługiwać przeglądy inspekcji, ujawniając cechy modelu uczenia maszynowego.
Prywatność i zabezpieczenia
W miarę jak sztuczna inteligencja staje się bardziej powszechna, ochrona prywatności i zabezpieczanie informacji osobistych i biznesowych jest ważniejsza i złożona. Prywatność i bezpieczeństwo danych wymagają ścisłej uwagi, ponieważ systemy sztucznej inteligencji potrzebują danych, aby podejmować dokładne przewidywania i decyzje. Systemy sztucznej inteligencji muszą przestrzegać przepisów dotyczących prywatności, które:
- Wymagaj przejrzystości w zakresie zbierania, używania i przechowywania danych.
- Umocuj, aby konsumenci mieli odpowiednie mechanizmy kontroli, aby wybrać sposób korzystania z ich danych.
Prywatność i zabezpieczenia w usłudze Azure Machine Learning: usługa Azure Machine Learning umożliwia administratorom i deweloperom tworzenie bezpiecznych konfiguracji , które są zgodne z zasadami firmy. Usługa Azure Machine Learning i platforma Azure umożliwiają:
- Ogranicz dostęp do zasobów i operacji według konta użytkownika lub grupy.
- Ogranicz komunikację przychodzącą i wychodzącą.
- Szyfrowanie danych przesyłanych i magazynowanych.
- Skanuj pod kątem luk w zabezpieczeniach.
- Zastosuj i przeprowadź inspekcję zasad konfiguracji.
Firma Microsoft utworzyła również dwa pakiety typu open source, aby ułatwić implementowanie zasad ochrony prywatności i zabezpieczeń:
SmartNoise: Prywatność różnicowa to zestaw systemów i praktyk, które pomagają chronić dane osób fizycznych i prywatnych. W rozwiązaniach uczenia maszynowego prywatność różnicowa może być wymagana do zapewnienia zgodności z przepisami. SmartNoise to projekt typu open source (współtworzyny przez firmę Microsoft), który zawiera składniki do tworzenia różnicowo prywatnych systemów, które są globalne.
Counterfit: Counterfit to projekt typu open source, który składa się z narzędzia wiersza polecenia i ogólnej warstwy automatyzacji, aby umożliwić deweloperom symulowanie cyberataków w systemach sztucznej inteligencji. Każdy może pobrać narzędzie i wdrożyć je za pośrednictwem usługi Azure Cloud Shell w celu uruchomienia w przeglądarce lub wdrożyć je lokalnie w środowisku języka Python Anaconda. Może oceniać modele sztucznej inteligencji hostowane w różnych środowiskach chmury, lokalnie lub na brzegu sieci. Narzędzie jest niezależne od modeli sztucznej inteligencji i obsługuje różne typy danych, w tym tekst, obrazy lub ogólne dane wejściowe.
Odpowiedzialności
Osoby, które projektują i wdrażają systemy sztucznej inteligencji, muszą odpowiadać za sposób działania tych systemów. Organizacje powinny używać standardów branżowych do opracowywania norm odpowiedzialności. Te normy pomagają zapewnić, że systemy sztucznej inteligencji nie są ostatecznym autorytetem w zakresie decyzji wpływających na życie ludzi i że ludzie zachowują znaczącą kontrolę nad wysoce autonomicznymi systemami.
Odpowiedzialność w usłudze Azure Machine Learning: operacje uczenia maszynowego (MLOps) są oparte na zasadach i praktykach metodyki DevOps, które zwiększają wydajność przepływu pracy sztucznej inteligencji. Usługa Azure Machine Learning zapewnia następujące możliwości metodyki MLOps w celu uzyskania lepszej odpowiedzialności:
- Rejestrowanie, pakowanie i wdrażanie modeli z dowolnego miejsca. Możesz również śledzić skojarzone metadane wymagane do korzystania z modelu.
- Przechwyć dane ładu dla kompleksowego cyklu życia uczenia maszynowego. Zarejestrowane informacje o pochodzenia mogą obejmować osoby publikujące modele, dlaczego wprowadzono zmiany oraz kiedy modele zostały wdrożone lub użyte w środowisku produkcyjnym.
- Powiadamianie i powiadamianie o zdarzeniach w cyklu życia uczenia maszynowego. Przykłady obejmują uzupełnianie eksperymentów, rejestrację modelu, wdrażanie modelu i wykrywanie dryfu danych.
- Monitorowanie aplikacji pod kątem problemów operacyjnych i problemów związanych z uczeniem maszynowym. Porównaj dane wejściowe modelu między trenowaniem i wnioskowaniem, eksplorowanie metryk specyficznych dla modelu oraz zapewnianie monitorowania i alertów w infrastrukturze uczenia maszynowego.
Ponadto karta wyników odpowiedzialnej sztucznej inteligencji w usłudze Azure Machine Learning tworzy odpowiedzialność, umożliwiając komunikację między uczestnikami projektu. Karta wyników umożliwia deweloperom konfigurowanie, pobieranie i udostępnianie szczegółowych informacji o kondycji modelu zarówno osobom biorącym udział w projekcie technicznym, jak i nietechnicznych. Udostępnianie tych szczegółowych informacji pomaga w budowaniu zaufania.
Usługa Azure Machine Learning obsługuje również podejmowanie decyzji przez informowanie o decyzjach biznesowych za pomocą następujących czynności:
- Szczegółowe informacje oparte na danych, które pomagają uczestnikom projektu zrozumieć wpływ leczenia przyczynowego na wyniki tylko przy użyciu danych historycznych. Na przykład"Jak lek wpłynie na ciśnienie krwi pacjenta?" Te szczegółowe informacje pochodzą ze składnika wnioskowania przyczynowegopulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji.
- Szczegółowe informacje oparte na modelu, które odpowiadają na pytania użytkowników (takie jak "Co mogę zrobić, aby uzyskać inny wynik od sztucznej inteligencji przy następnym razem?"), aby mogli podjąć działania. Te szczegółowe informacje są udostępniane za pośrednictwem alternatywnego składnika analizy warunkowejpulpitu nawigacyjnego odpowiedzialnej sztucznej inteligencji.
Następne kroki
- Aby uzyskać więcej informacji na temat implementowania odpowiedzialnej sztucznej inteligencji w usłudze Azure Machine Learning, zobacz Pulpit nawigacyjny odpowiedzialnej sztucznej inteligencji.
- Dowiedz się, jak wygenerować pulpit nawigacyjny odpowiedzialnej sztucznej inteligencji za pomocą interfejsu wiersza polecenia i zestawu SDK lub interfejsu użytkownika usługi Azure Machine Learning Studio.
- Dowiedz się, jak wygenerować kartę wyników odpowiedzialnej sztucznej inteligencji na podstawie szczegółowych informacji obserwowanych na pulpicie nawigacyjnym odpowiedzialnej sztucznej inteligencji.
- Dowiedz się więcej o standardzie Odpowiedzialnej sztucznej inteligencji na potrzeby tworzenia systemów sztucznej inteligencji zgodnie z sześcioma kluczowymi zasadami.