Zarządzanie odpowiedzialnym rozwiązaniem do generowania sztucznej inteligencji

Ukończone

Po zmapowaniu potencjalnych szkód, opracuj sposób ich mierzenia oraz zaimplementuj dla nich środki zaradcze w swoim rozwiązaniu, aby móc przygotować się do wydania tego rozwiązania. Przed wykonaniem tej czynności należy wziąć pod uwagę pewne kwestie, które ułatwiają zapewnienie pomyślnego wydania i kolejnych operacji.

Ukończ przeglądy wersji wstępnej

Przed udostępnieniem rozwiązania do generowania sztucznej inteligencji zidentyfikuj różne wymagania dotyczące zgodności w organizacji i branży oraz upewnij się, że odpowiednie zespoły mają możliwość przejrzenia systemu i jego dokumentacji. Typowe przeglądy zgodności obejmują:

  • Prawo
  • Prywatność
  • Zabezpieczenia
  • Dostępność

Uruchomienie i obsługa rozwiązania

Udane wydanie wymaga odpowiedniego planowania i przygotowania. Weź pod uwagę następujące wskazówki:

  • Opracowanie etapowego planu dostarczania, który umożliwia początkowe wydanie rozwiązania do ograniczonej grupy użytkowników. Takie podejście umożliwia zbieranie opinii i identyfikowanie problemów przed udostępnieniem szerszej publiczności.
  • Utwórz plan reagowania na zdarzenia, który obejmuje oszacowania czasu potrzebnego na reagowanie na nieprzewidziane zdarzenia.
  • Utwórz plan przywracania , który definiuje kroki przywracania rozwiązania do poprzedniego stanu w przypadku wystąpienia incydentu.
  • Zaimplementuj możliwość natychmiastowego blokowania szkodliwych odpowiedzi systemowych po ich odnalezieniu.
  • Zaimplementuj możliwość blokowania określonych użytkowników, aplikacji lub adresów IP klienta w przypadku nieprawidłowego użycia systemu.
  • Zaimplementuj sposób przekazywania opinii i zgłaszania problemów przez użytkowników. W szczególności umożliwia użytkownikom zgłaszanie wygenerowanej zawartości jako "niedokładne", "niekompletne", "szkodliwe", "obraźliwe" lub w inny sposób problematyczne.
  • Śledzenie danych telemetrycznych, które umożliwiają określenie zadowolenia użytkowników i zidentyfikowanie luk funkcjonalnych lub wyzwań związanych z użytecznością. Zebrane dane telemetryczne powinny być zgodne z przepisami dotyczącymi prywatności oraz zasadami i zobowiązaniami organizacji dotyczącymi prywatności użytkowników.

Korzystanie z bezpieczeństwa zawartości rozwiązania Microsoft Foundry

Kilka zasobów sztucznej inteligencji platformy Azure zapewnia wbudowaną analizę zawartości, z którą współpracują, w tym język, przetwarzanie obrazów i usługę Azure OpenAI przy użyciu filtrów zawartości.

Rozwiązanie Microsoft Foundry Bezpieczeństwo Treści dostarcza więcej funkcji koncentrujących się na zachowaniu bezpieczeństwa sztucznej inteligencji i współpracowników przed ryzykiem. Te funkcje obejmują wykrywanie nieodpowiedniego lub obraźliwego języka, zarówno z danych wejściowych, jak i generowanych oraz wykrywanie ryzykownych lub nieodpowiednich danych wejściowych.

Funkcje w zabezpieczeniach zawartości usługi Foundry obejmują:

Funkcja Funkcjonalność
Monituj osłony Skanuje pod kątem ryzyka ataków wejściowych użytkowników na modele językowe
Wykrywanie uziemienia Wykrywa, czy odpowiedzi tekstowe są uziemione w zawartości źródłowej użytkownika
Wykrywanie chronionych materiałów Skanowanie pod kątem znanych treści chronionych prawami autorskimi
Kategorie niestandardowe Definiowanie kategorii niestandardowych dla wszelkich nowych lub pojawiających się wzorców

Szczegółowe informacje i przewodniki szybkiego startu dotyczące korzystania z systemu zabezpieczeń treści Foundry można znaleźć na stronach dokumentacji usługi.