Udostępnij przez


Odnajdywanie aplikacji i danych sztucznej inteligencji

Generatywna sztuczna inteligencja (GenAI) jest wdrażana w bezprecedensowym tempie, ponieważ organizacje aktywnie angażują się w GenAI lub eksperymentują z GenAI w różnych zakresach. Zespoły ds. zabezpieczeń mogą skuteczniej ograniczyć ryzyko i zarządzać nimi, proaktywnie uzyskując wgląd w użycie sztucznej inteligencji w organizacji i wdrażając odpowiednie mechanizmy kontroli. W tym artykule opisano sposób odnajdywania użycia aplikacji sztucznej inteligencji w organizacji, w tym oceny ryzyka dla poufnych danych.

Jest to drugi artykuł z serii. Przed rozpoczęciem korzystania z tego artykułu upewnij się, że wykonano zadania opisane w artykule Przygotowanie do zabezpieczeń sztucznej inteligencji w celu przygotowania środowiska z funkcjami opisanymi w tym artykule.

Diagram przedstawiający drugi artykuł z serii bezpieczeństwa sztucznej inteligencji, czyli Odkrywanie.

Firma Microsoft udostępnia narzędzia ułatwiające uzyskanie wglądu w dane, dostęp, użytkownika i zagrożenia aplikacji dla utworzonej i używanej sztucznej inteligencji. Te możliwości pomagają aktywnie rozwiązywać luki w zabezpieczeniach podczas tworzenia silnego poziomu zabezpieczeń dla sztucznej inteligencji.

Diagram przedstawiający możliwości odnajdywania sztucznej inteligencji.

W poniższej tabeli opisano ilustrację, a także przedstawiono kroki wdrażania tych funkcji.

Krok Zadanie Zakres
1 Uzyskaj wgląd we wszystkie tożsamości agentów utworzone w programie Microsoft Copilot Studio i usłudze Azure AI Foundry przy użyciu identyfikatora agenta Entra firmy Microsoft. Agenci utworzeni w narzędziu Microsoft Copilot Studio i Azure AI Foundry
2 Uzyskaj wgląd w użycie sztucznej inteligencji za pomocą usługi Microsoft Purview Data Security Posture Management (DSPM) dla sztucznej inteligencji. Stosowanie zasad w celu ochrony poufnych danych. Copilotsi, agenci i inne aplikacje sztucznej inteligencji, które korzystają z dużych modeli językowych innych firm (LLM), w tym Obsługiwane witryny AI.
3 Odnajdywanie, akceptowanie i blokowanie aplikacji sztucznej inteligencji za pomocą usługi Microsoft Defender for Cloud Apps Aplikacje SaaS AI
4 Odnajdywanie wdrożonych obciążeń sztucznej inteligencji w środowisku i uzyskiwanie szczegółowych informacji o zabezpieczeniach za pomocą usługi Microsoft Defender for Cloud Security Posture Management (CSPM) Niestandardowe aplikacje sztucznej inteligencji oparte na sztucznej inteligencji na platformie Azure

Krok 1. Zyskaj wgląd w agentów za pomocą Entra Agent ID (wersja próbna)

Gdy organizacje tworzą i wdrażają agentów sztucznej inteligencji, trudno jest śledzić te nieludzkie podmioty. To, co sprawia, że ci agenci są potężni — ich zdolność do autonomicznego obsługiwania złożonych zadań i działania jak wirtualni koledzy z zespołu — również budzi obawy. Dlatego ważne jest śledzenie tożsamości agentów, zarządzanie ich cyklem życia i uprawnieniami oraz dokładne zabezpieczanie dostępu do zasobów organizacji.

Identyfikator agenta Microsoft Entra (wersja zapoznawcza) udostępnia ujednolicony katalog wszystkich tożsamości agentów utworzonych w programie Microsoft Copilot Studio i usłudze Azure AI Foundry. Jest to pierwszy krok w zapewnianiu jeszcze większej widoczności, ochrony i zapewniania ładu szybko rosnącej liczby agentów w organizacjach.

Zadanie Zalecane zasoby
Wyświetlanie wszystkich agentów w organizacji zaloguj się do centrum administracyjnego firmy Microsoft Entra i przejdź do aplikacji dla przedsiębiorstw. Na pasku filtru w górnej części widoku listy ustaw listę rozwijaną Typ aplikacji na Agent ID (wersja zapoznawcza). Natychmiast lista aplikacji przedsiębiorstwa zawęzi się, aby wyświetlić agentów sztucznej inteligencji (utworzonych za pośrednictwem Copilot Studio lub Azure AI Foundry), które są zarejestrowane w Twojej dzierżawie.
Dowiedz się więcej, przeglądając ten blog Ogłoszenie Microsoft Entra Agent ID: Bezpieczne zarządzanie Twoimi agentami AI

Krok 2. Uzyskiwanie wglądu w użycie sztucznej inteligencji za pomocą zarządzania stanem zabezpieczeń danych (DSPM) dla sztucznej inteligencji

Rozwiązanie Microsoft Purview Data Security Posture Management (DSPM) dla sztucznej inteligencji koncentruje się na tym, jak sztuczna inteligencja jest używana w organizacji, szczególnie w jaki sposób dane współdziałają z narzędziami sztucznej inteligencji. Współpracuje ona z witrynami związanymi z generatywną sztuczną inteligencją. DSPM dla sztucznej inteligencji zapewnia głębszy wgląd dla Microsoft Copilots oraz zewnętrznych aplikacji SaaS, takich jak ChatGPT Enterprise i Google Gemini.

Na poniższym diagramie przedstawiono jeden z zagregowanych widoków wpływu użycia sztucznej inteligencji na dane: wrażliwe interakcje przypadające na generatywną aplikację AI.

Zrzut ekranu przedstawiający wrażliwe interakcje dla poszczególnych generatywnych aplikacji sztucznej inteligencji.

DSPM dla sztucznej inteligencji oferuje zestaw możliwości, które ułatwiają bezpieczne wdrażanie sztucznej inteligencji bez konieczności wyboru między produktywnością a ochroną:

  • Szczegółowe informacje i analiza aktywności sztucznej inteligencji w organizacji
  • Zasady gotowe do użycia w celu ochrony danych i zapobiegania utracie danych w monitach dotyczących sztucznej inteligencji
  • Oceny ryzyka danych w celu identyfikowania, korygowania i monitorowania potencjalnego nadmiernego udostępniania danych
  • Zalecane działania na podstawie danych Twojej dzierżawy
  • Mechanizmy kontroli zgodności w celu zastosowania optymalnych polityk obsługi i przechowywania danych

Aby monitorować interakcje z witrynami sztucznej inteligencji innych firm, urządzenia muszą być dołączone do usługi Microsoft Purview. Jeśli wykonano kroki opisane w artykule Przygotowanie do zabezpieczeń sztucznej inteligencji, urządzenia zostały zarejestrowane do zarządzania w usłudze Microsoft Intune, a następnie dołączono te urządzenia do usługi Defender for Endpoint. Dołączanie urządzeń jest wspólne dla Microsoft 365 (w tym Microsoft Purview) i Microsoft Defender for Endpoint (MDE).

Skorzystaj z poniższych zasobów, aby odnaleźć aplikacje i dane sztucznej inteligencji za pomocą platformy DSPM dla sztucznej inteligencji.

Zadanie Zalecane zasoby
Upewnij się, że urządzenia są dołączone do usługi Microsoft Purview. Jeśli urządzenia nie zostały jeszcze dołączone do usługi Defender dla punktu końcowego, istnieje kilka metod umożliwiających ich dołączanie. Zobacz Dołączanie urządzeń z systemem Windows do platformy Microsoft 365.
Informacje o wymaganiach wstępnych i sposobie działania platformy DSPM dla sztucznej inteligencji Zagadnienia dotyczące wdrażania zarządzania stanem zabezpieczeń danych usługi Microsoft Purview dla sztucznej inteligencji
Rozpoczynanie korzystania z platformy DSPM dla sztucznej inteligencji Jak używać zarządzania stanem zabezpieczeń danych dla sztucznej inteligencji
Przeglądanie obsługiwanych witryn sztucznej inteligencji Obsługiwane witryny sztucznej inteligencji firmy Microsoft Purview na potrzeby zabezpieczeń danych i ochrony zgodności

Krok 3. Odnajdywanie, akceptowanie i blokowanie aplikacji sztucznej inteligencji za pomocą usługi Microsoft Defender for Cloud Apps

Usługa Microsoft Defender for Cloud Apps ułatwia zespołom ds. zabezpieczeń odnajdywanie aplikacji i użycia usługi SaaS GenAI.

Katalog aplikacji Usługi Defender for Cloud Apps zawiera kategorię Generowanie sztucznej inteligencji dla dużych aplikacji modelu językowego (LLM), takich jak Microsoft Bing Chat, Google Bard, ChatGPT i nie tylko. Usługa Defender for Cloud Apps dodała do katalogu ponad tysiąc generacyjnych aplikacji związanych ze sztuczną inteligencją, zapewniając wgląd w sposób, w jaki generujące aplikacje sztucznej inteligencji są używane w organizacji i ułatwiają bezpieczne zarządzanie nimi.

Zrzut ekranu przedstawiający wyszukiwanie aplikacji w katalogu aplikacji w chmurze.

Usługa Defender for Cloud Apps umożliwia:

  • Filtr dla aplikacji sztucznej inteligencji generatywnej
  • Odnajdywanie aplikacji sztucznej inteligencji używanych w organizacji
  • Zapoznaj się z wbudowanymi ocenami ryzyka dla każdej aplikacji, w tym 90 czynnikami ryzyka w zakresie zabezpieczeń i zgodności z przepisami
  • Akceptowanie lub odrzucanie (blokowanie) użycia określonych aplikacji
  • Utwórz zasady, które będą nadal odnajdywać aplikacje sztucznej inteligencji na podstawie określonych kryteriów, w tym oceny ryzyka, liczby użytkowników dziennie i innych. Możesz nawet automatycznie usunąć aplikacje spełniające kryteria.

Zrzut ekranu przedstawiający stronę rozwiązania Cloud Discovery w usłudze Microsoft Defender.

Aby wykonać następne kroki, skorzystaj z poniższych zasobów.

Zadanie Zalecane zasoby
Pilotaż i wdrażanie usługi Defender for Cloud Apps Jak przeprowadzić pilotaż i wdrożyć usługę Microsoft Defender for Cloud Apps?
Zapoznaj się z tym samouczkiem wideo Odkrywanie, które aplikacje generujące sztuczną inteligencję są używane w twoim środowisku przy użyciu usługi Defender for Cloud Apps
Wyświetlanie odnalezionych aplikacji Wyświetlanie odnalezionych aplikacji za pomocą pulpitu nawigacyjnego rozwiązania Cloud Discovery
Znajdowanie aplikacji w chmurze i obliczanie oceny ryzyka Wykaz aplikacji w chmurze i oceny ryzyka — Microsoft Defender for Cloud Apps
Zarządzanie odnalezioną aplikacją Zarządzanie odnalezionymi aplikacjami — Microsoft Defender for Cloud Apps

Krok 4. Odnajdywanie wdrożonych obciążeń sztucznej inteligencji w środowisku i uzyskiwanie szczegółowych informacji o zabezpieczeniach za pomocą usługi Microsoft Defender for Cloud

Plan zarządzania stanem zabezpieczeń w chmurze (CSPM) w usłudze Microsoft Defender for Cloud zapewnia możliwości zarządzania stanem zabezpieczeń sztucznej inteligencji, począwszy od odnajdywania aplikacji sztucznej inteligencji wbudowanych w środowiska:

  • Odkrywanie zestawienia materiałów dla generatywnej sztucznej inteligencji (AI BOM), w tym składników aplikacji, danych i artefaktów sztucznej inteligencji od kodu po chmurę.
  • Wzmocnienie poziomu zabezpieczeń aplikacji generujących sztuczną inteligencję dzięki wbudowanym rekomendacjom oraz eksplorowaniu i korygowaniu zagrożeń bezpieczeństwa.
  • Korzystanie z analizy ścieżki ataku w celu identyfikowania i korygowania zagrożeń.

Użyj eksploratora zabezpieczeń w chmurze, aby zidentyfikować generowanie obciążeń i modeli sztucznej inteligencji działających w danym środowisku. Eksplorator zabezpieczeń w chmurze obejmuje wstępnie skonfigurowane zapytania:

  • Obciążenia i modele sztucznej inteligencji w użyciu
  • Repozytoria z podatnym kodem generowanym przez AI dla usługi Azure OpenAI
  • Kontenery uruchamiające obrazy kontenerów ze znanymi lukami w zabezpieczeniach związanych z generatywną sztuczną inteligencją.

Zrzut ekranu przedstawiający używane obciążenia i modele sztucznej inteligencji

Możesz również skonfigurować własne zapytania.

Zrzut ekranu przedstawiający stronę konfiguracji do konfigurowania własnych zapytań.

Aby wykonać następne kroki, skorzystaj z poniższych zasobów.

Zadanie Zalecane zasoby
Dowiedz się więcej o zarządzaniu stanem zabezpieczeń sztucznej inteligencji Zarządzanie stanem zabezpieczeń sztucznej inteligencji za pomocą usługi Defender for Cloud
Odnajdywanie obciążeń sztucznej inteligencji Obciążenia i modele sztucznej inteligencji w użyciu
Eksplorowanie czynników ryzyka w celu wstępnego wdrażania artefaktów sztucznej inteligencji Zagrożenia związane z artefaktami sztucznej inteligencji przed wdrożeniem

Następny krok zabezpieczania sztucznej inteligencji

Po odnalezieniu użycia sztucznej inteligencji w organizacji następnym krokiem jest zastosowanie ochrony:

  • Ochrona poufnych danych używanych w aplikacjach sztucznej inteligencji
  • Implementowanie ochrony przed zagrożeniami specjalnie na potrzeby użycia sztucznej inteligencji

Zobacz następny artykuł z tej serii: Jak mogę chronić organizację podczas korzystania z aplikacji sztucznej inteligencji?