Podsumowanie
Odpowiedzialne używanie sztucznej inteligencji nie jest tylko wymaganiem technicznym — jest to imperatyw biznesowy. W tym module przedstawiono społeczne implikacje sztucznej inteligencji, ryzyko stronniczości i nieprawidłowego użycia oraz dlaczego organizacje muszą przewidywać i ograniczać niezamierzone konsekwencje.
Poznaliśmy sześć podstawowych zasad firmy Microsoft — sprawiedliwość, niezawodność i bezpieczeństwo, prywatność i bezpieczeństwo, inkluzywność, przejrzystość i odpowiedzialność — oraz sposób operacjonalizacji ich za pośrednictwem systemów ładu, zasad i zaangażowania międzyfunkcyjnego. Dzięki tym szczegółowym informacjom możesz utworzyć strukturę, która równoważy innowacje z zaufaniem, umożliwiając organizacji odpowiedzialne i pewnie skalowanie sztucznej inteligencji.
Dodatkowe materiały
- Aby ocenić, w jaki sposób organizacja jest obecnie zaangażowana w praktyki odpowiedzialnej sztucznej inteligencji i które następne kroki należy wykonać, przeczytaj nasz model odpowiedzialnej dojrzałości do sztucznej inteligencji.
- Aby dowiedzieć się więcej na temat wspólnych inicjatyw branżowych dotyczących odpowiedzialnej sztucznej inteligencji, odwiedź stronę główną Partnership on AI.
- Aby dowiedzieć się więcej na temat narzędzi i praktyk firmy Microsoft do oceny, zrozumienia i podejmowania świadomych decyzji dotyczących systemów sztucznej inteligencji, zapoznaj się z tematem Odpowiedzialne narzędzia i rozwiązania sztucznej inteligencji .
- Aby dowiedzieć się więcej o narzędziach open source do tworzenia sprawiedliwych systemów sztucznej inteligencji, przeczytaj stronę główną FairLearn.
- Aby dowiedzieć się więcej na temat praktyk projektowania inkluzywnego, przeczytaj stronę główną projektu inkluzywnego firmy Microsoft i podręcznik Inclusive 101.