Udostępnij przez


Ochrona korzystania z aplikacji i danych sztucznej inteligencji w organizacji

W tym artykule opisano sposób używania funkcji specyficznych dla ochrony aplikacji sztucznej inteligencji i danych, z którymi korzystają.

  • Ochrona poufnych danych w monitach użytkownika i danych generowanych przez sztuczną inteligencję
  • Obrona przed pojawiającymi się zagrożeniami, takimi jak wstrzyknięcia poleceń

Jest to trzeci artykuł z serii. Jeśli nie wykonano jeszcze zadań opisanych w artykule Przygotowanie do zabezpieczeń sztucznej inteligencji i Odnajdywanie aplikacji i danych sztucznej inteligencji, zacznij od tych artykułów, aby przygotować środowisko z funkcjami określonymi w tym artykule.

Diagram przedstawiający aspekt ochrony bezpieczeństwa dla serii AI.

Użyj tego artykułu razem z tym zasobem:

Firma Microsoft oferuje szeroki zestaw możliwości ochrony aplikacji i danych sztucznej inteligencji. W tym artykule omówiono je w dwóch kategoriach — ochrona danych i ochrona przed zagrożeniami.

Diagram przedstawiający możliwości ochrony aplikacji i danych sztucznej inteligencji.

W poniższych dwóch tabelach opisano ilustrację, a także przedstawiono kroki implementowania tych funkcji.

Tabela 1 — możliwości ochrony danych

Krok Zadanie Scope
1 Zastosuj kontrolki nadmiernego udostępniania w SharePoint, aby szybko wyłączyć poufne witryny i dane spod działania aplikacji AI. Witryny i pliki w środowisku platformy Microsoft 365.
2 Użyj funkcji Zarządzania stanem zabezpieczeń danych (DSPM) w kontekście sztucznej inteligencji, aby dowiedzieć się, gdzie odbywa się nadmierne udostępnianie, oraz znaleźć luki w politykach etykiet poufności i DLP. Copilotsi, agenci i inne aplikacje sztucznej inteligencji, które korzystają z dużych modeli językowych innych firm (LLM), w tym Obsługiwane witryny AI.
Aplikacje sztucznej inteligencji u innych dostawców usług w chmurze za pośrednictwem zestawu SDK usługi Purview.
3 Kontynuuj postęp w zakresie etykiet poufności i zasad ochrony przed utratą danych (DLP). Witryny, pliki i urządzenia w środowisku platformy Microsoft 365.
Aplikacje SaaS w przypadku integracji z usługą Defender for Cloud Apps.
Aplikacje sztucznej inteligencji na platformie Azure i innych dostawców usług w chmurze za pośrednictwem zestawu SDK usługi Purview.
4 W ramach wewnętrznego zarządzania ryzykiem (IRM) zastosuj szablon ryzykownej sztucznej inteligencji, aby zidentyfikować ryzykowne zachowanie w aplikacjach sztucznej inteligencji. Witryny internetowe z generatywną sztuczną inteligencją.
Microsoft 365 Copilot, Microsoft Copilot, Copilot Studio, Azure AI services.
Aplikacje sztucznej inteligencji u innych dostawców usług w chmurze za pośrednictwem zestawu SDK usługi Purview.
5 Skonfiguruj adaptacyjną ochronę dla zarządzania ryzykiem wewnętrznym, aby zwiększyć ochronę danych na podstawie ryzyka użytkowników. Witryny, pliki i urządzenia w środowisku platformy Microsoft 365.

Tabela 2 — Możliwości ochrony przed zagrożeniami

Krok Zadanie Scope
1 Użyj usługi Defender for Cloud Apps, aby otrzymywać alerty o używaniu nowych aplikacji sztucznej inteligencji, obliczać oceny ryzyka dla aplikacji sztucznej inteligencji oraz zezwalać na te aplikacje w danym środowisku lub blokować je. Usługa Defender for Cloud Apps zapewnia dodatkową ochronę rozwiązania Microsoft 365 Copilot. Aplikacje SaaS AI
2 Defender dla Chmury

Odnajdywanie wdrożonych obciążeń sztucznej inteligencji w środowisku i uzyskiwanie szczegółowych informacji o zabezpieczeniach za pomocą usługi Microsoft Defender for Cloud
Niestandardowe aplikacje sztucznej inteligencji oparte na sztucznej inteligencji na platformie Azure

Ochrona danych sztucznej inteligencji

Te możliwości pomagają wydajnie dowiedzieć się i ograniczyć najważniejsze zagrożenia związane z nadmiernym udostępnianiem danych, użyciem poufnych danych i ryzykownymi zachowaniami użytkowników. Te możliwości są ograniczone do ochrony aplikacji i danych sztucznej inteligencji w danym środowisku.

Krok 1. Stosowanie kontrolek oversharing programu SharePoint

Kontrole nadmiernego udostępniania w SharePoint obejmują wbudowane mechanizmy, takie jak uprawnienia o określonym zakresie, oraz dodatkowe funkcjonalności w usłudze SharePoint Advanced Management, które wzmacniają zarządzanie zawartością podczas wdrażania rozwiązania Microsoft Copilot. Kontrolki oversharing programu SharePoint ułatwiają:

  • Tymczasowo ogranicz wyszukiwanie narzędzia Copilot do listy określonych witryn (wyszukiwanie w programie SharePoint z ograniczeniami).
  • Szybko zidentyfikuj witryny, które potencjalnie zawierają zbyt udostępnione dane lub poufną zawartość (raporty dotyczące zarządzania dostępem do danych).
  • Oflaguj witryny, aby użytkownicy nie mogli znaleźć ich za pośrednictwem funkcji wyszukiwania w całej organizacji ani wyszukiwania w całej organizacji (funkcja odnajdywania zawartości z ograniczeniami w usłudze SharePoint Advanced Management).
  • utwórz nieaktywne zasady witryny, aby automatycznie zarządzać nieaktywne witryny i zmniejszać je (Zarządzanie zaawansowane programu SharePoint).
  • Ogranicz dostęp do witryn programu SharePoint i usługi OneDrive do użytkowników w określonej grupie (zasady kontroli dostępu z ograniczeniami w usłudze SharePoint Advanced Management).

Aby rozpocząć korzystanie z kontrolek oversharing, użyj następujących zasobów.

Zadanie Zalecane zasoby
Zapoznaj się z ilustracją i opisem opcji zarządzania udostępnianiem, których można używać z usługą Microsoft 365 Copilot architektura ochrony danych i audytowania w Microsoft 365 Copilot
Strategia do pobrania, aby zapobiec nadmiernemu udostępnianiu Plan Microsoft 365 Copilot dotyczący nadmiernego dzielenia się
Dowiedz się więcej o zaawansowanym zarządzaniu programem SharePoint Microsoft SharePoint Premium — omówienie zaawansowanego zarządzania programem SharePoint

Krok 2 — Ochrona danych za pośrednictwem dsPM dla sztucznej inteligencji

Użyj DSPM w kontekście sztucznej inteligencji, aby dowiedzieć się, gdzie odbywa się nadmierne udostępnianie, i zidentyfikować luki w zakresie polityk dotyczących etykiet poufności i zasad DLP.

Doskonałym miejscem na początek jest zapoznanie się z raportem ocen tygodniowych.

Zrzut ekranu przedstawiający oceny danych z tygodnia listopada.

Możesz przejść do szczegółów poszczególnych raportów, aby dowiedzieć się więcej o tym, gdzie występują luki w kontrolach zapobiegających nadmiernemu udostępnianiu, etykietach i zasadach ochrony przed utratą danych (DLP), dzięki czemu możesz te problemy szybko naprawić.

Zrzut ekranu przedstawiający 5 pierwszych witryn programu SharePoint z nieoznakowanymi plikami w monitach copilot.

Dla każdego raportu DSPM dla sztucznej inteligencji udostępnia zalecenia dotyczące poprawy bezpieczeństwa danych. Użyj linku Wyświetl wszystkie zalecenia lub Zalecenia w okienku nawigacji, aby wyświetlić wszystkie dostępne zalecenia dla Twojego dzierżawcy i ich stan.

Zrzut ekranu przedstawiający zalecenia dla najemcy i ich status.

Skorzystaj z poniższych zasobów, aby chronić aplikacje i dane sztucznej inteligencji za pomocą platformy DSPM dla sztucznej inteligencji.

Zadanie Zalecane zasoby
Dowiedz się więcej o DSPM dla sztucznej inteligencji Jak używać platformy DSPM dla sztucznej inteligencji
Dowiedz się więcej o wymaganiach wstępnych oraz o tym, jak działają zasady jednoklikowe i zasady domyślne. Zagadnienia dotyczące platformy DSPM dla sztucznej inteligencji
W przypadku aplikacji sztucznej inteligencji u innych dostawców chmury dowiedz się, jak przetestować integrację z platformą DSPM dla sztucznej inteligencji przy użyciu zestawu SDK usługi Purview Jak przetestować aplikację sztucznej inteligencji zintegrowaną z zestawem Purview SDK

Krok 3. Kontynuuj identyfikowanie luk w etykietach poufności i zasadach DLP

W obszarze Przygotowanie do zabezpieczeń sztucznej inteligencji użyto narzędzi do zarządzania stanem zabezpieczeń danych usługi Microsoft Purview, DSPM i DSPM dla sztucznej inteligencji, aby określić priorytety ochrony poufnych danych. Przejdź ponownie do tych narzędzi, aby zidentyfikować luki w zakresie zasad i dowiedzieć się, gdzie należy nadal inwestować w stosowanie etykiet poufności i zasad DLP. Ponadto rozszerz etykiety poufności i zasady DLP do aplikacji SaaS przy użyciu usługi Defender for Cloud Apps.

Skorzystaj z poniższych zasobów, aby poczynić postępy w usłudze Microsoft Purview.

Zadanie Zalecane zasoby
Dowiedz się więcej o zalecanych strategiach wdrażania na potrzeby ochrony informacji Wdrażanie rozwiązania do ochrony informacji za pomocą usługi Microsoft Purview
Rozszerzanie etykiet poufności i zasad DLP na aplikacje SaaS przy użyciu usługi Defender for Cloud Apps Ochrona informacji deply dla aplikacji SaaS
Definiowanie etykiet poufności i zasad, które będą chronić dane organizacji Wprowadzenie do etykiet poufności
Tworzenie i konfigurowanie etykiet poufności oraz ich polityk
Ograniczanie dostępu do zawartości przy użyciu etykiet poufności w celu zastosowania szyfrowania
Etykietowanie i ochrona danych dla aplikacji i usług platformy Microsoft 365 Zarządzanie etykietami poufności w aplikacjach pakietu Office
Włącz etykiety ważności dla plików w SharePoint i OneDrive
Dostosowanie zasad DLP Tworzenie i wdrażanie zasad ochrony przed utratą danych
W przypadku aplikacji sztucznej inteligencji opracowanych na platformie Azure lub u innych dostawców usług w chmurze dowiedz się, jak stosować etykiety poufności i zasady DLP przy użyciu zestawu SDK usługi Purview Co to jest zestaw SDK usługi Purview
Użyj interfejsów API Microsoft Graph Purview
Jak przetestować aplikację sztucznej inteligencji zintegrowaną z zestawem Purview SDK

Krok 4. Stosowanie szablonu ryzykownej sztucznej inteligencji w rozwiązaniu Insider Risk Management (IRM)

Usługa Microsoft Purview Insider Risk Management (IRM) zawiera wstępnie zdefiniowane szablony zasad, które można zastosować do środowiska, w tym ryzykowne użycie sztucznej inteligencji. Szablony usługi IRM to wstępnie zdefiniowane warunki zasad definiujące typy wskaźników ryzyka i model oceniania ryzyka używany przez zasady.

Zasady użycia ryzykownej sztucznej inteligencji mogą pomóc wykrywać i włączać ocenianie ryzyka dla monitów i odpowiedzi w narzędziach sztucznej inteligencji w organizacji. IRM pomaga badać i podejmować działania w odniesieniu do ryzykownych działań związanych ze sztuczną inteligencją.

Skorzystaj z poniższych zasobów, aby rozpocząć pracę z usługą Insider Risk Management i zastosować szablon zasad ryzykownych użycia sztucznej inteligencji.

Zadanie Zalecane zasoby
Rozpocznij pracę z zarządzaniem ryzykiem wewnętrznym i poznaj najważniejsze scenariusze, które przynoszą korzyści twojej organizacji Dowiedz się więcej o zarządzaniu ryzykiem poufnym
Zastosuj szablon ryzykownej sztucznej inteligencji Dowiedz się więcej o szablonach zasad zarządzania ryzykiem niejawnych | Microsoft Learn
Dowiedz się więcej na temat kluczowych scenariuszy dotyczących sztucznej inteligencji i wyświetlania przykładowych raportów Zarządzanie ryzykiem niejawnym ułatwia wgląd w ryzykowną widoczność użycia sztucznej inteligencji i badania zabezpieczeń
W przypadku aplikacji sztucznej inteligencji opracowanych za pomocą zestawu SDK usługi Purview przetestuj integrację rozwiązania Insider Risk Management Jak przetestować aplikację sztucznej inteligencji zintegrowaną z zestawem Purview SDK

Krok 5—Konfigurowanie adaptacyjnej ochrony na potrzeby zarządzania ryzykiem wynikającym z działań wewnętrznych

Adaptacyjna ochrona w rozwiązaniu Microsoft Purview Insider Risk Management dynamicznie przypisuje użytkownikom poziom ryzyka, a następnie stosuje zasady tworzone dla użytkowników z umiarkowanym lub podwyższonym ryzykiem. Zasady mogą implementować zwiększone akcje zapobiegania utracie danych, zachowywanie usuniętej zawartości lub wymuszanie wyższych wymagań dotyczących dostępu warunkowego.

Skorzystaj z poniższych zasobów, aby rozpocząć pracę z funkcją Adaptacyjna ochrona.

Zadanie Zalecane zasoby
Rozpocznij pracę z zarządzaniem ryzykiem wewnętrznym i poznaj najważniejsze scenariusze, które przynoszą korzyści twojej organizacji Dowiedz się więcej o zarządzaniu ryzykiem poufnym
Dowiedz się więcej na temat kluczowych scenariuszy dotyczących sztucznej inteligencji i wyświetlania przykładowych raportów Zarządzanie ryzykiem niejawnym ułatwia wgląd w ryzykowną widoczność użycia sztucznej inteligencji i badania zabezpieczeń
Zastosuj szablon ryzykownej sztucznej inteligencji Dowiedz się więcej o szablonach zasad zarządzania ryzykiem poufnym
Analizowanie i reagowanie na działania związane z ryzykiem wewnętrznym Badanie działań związanych z zarządzaniem ryzykiem wewnętrznym
Podejmowanie działań dotyczących przypadków zarządzania ryzykiem poufnym

Jak najlepiej wykorzystać ochronę przed zagrożeniami dla sztucznej inteligencji

Usługi Defender for Cloud Apps i Defender for Cloud obejmują możliwości informowania o nowym użyciu aplikacji sztucznej inteligencji i stosowaniu odpowiednich mechanizmów kontroli.

Krok 1. Klasyfikacja i ochrona aplikacji sztucznej inteligencji za pomocą usługi Defender for Cloud Apps

Poprzedni artykuł z tej serii : Odnajdywanie aplikacji sztucznej inteligencji i danych koncentruje się na używaniu usługi Defender for Cloud Apps do odnajdywania aplikacji sztucznej inteligencji w twoim środowisku. Ten artykuł zachęca organizacje do korzystania z usługi Defender for Cloud Apps, aby śledzić nowe aplikacje sztucznej inteligencji, oceniać ryzyko, które stwarzają one dla Twojego środowiska, zatwierdzać lub blokować te aplikacje oraz stosować mechanizmy kontroli sesji do aplikacji.

Najpierw utwórz zasady, aby automatycznie wyzwolić alert, gdy nowa aplikacja generacyjna sztucznej inteligencji jest używana w organizacji.

Zrzut ekranu przedstawiający stronę tworzenia zasad wyszukiwania aplikacji w Microsoft Defender.

Następnie oceń ocenę ryzyka dla nowo odnalezionych aplikacji. Możesz również dostosować ocenę ryzyka. Na przykład wysoce regulowane organizacje mogą chcieć zmienić wagę określonych atrybutów oceny ryzyka. Można również zastąpić ocenę ryzyka.

Zrzut ekranu przedstawiający katalog aplikacji w chmurze.

Zdecyduj, czy podjąć sankcje, czy zablokować każdą aplikację. Organizacje mogą blokować użycie aplikacji z różnych powodów. Niektórzy obawiają się, że poufne dane będą nieświadomie udostępniane aplikacjom i udostępniane później odbiorcom spoza organizacji. Może to spowodować zablokowanie użycia przez organizację wszystkich niezarządzanych aplikacji sztucznej inteligencji. Podczas gdy inne organizacje muszą upewnić się, że wszystkie aplikacje używane są zgodne z różnymi standardami, takimi jak SOC2 lub HIPAA.

Na koniec w przypadku aplikacji, które usankcjonujesz, zdecyduj, czy chcesz zastosować zasady sesji w celu zapewnienia większej kontroli i widoczności. Zasady sesji umożliwiają stosowanie parametrów do sposobu, w jaki aplikacje w chmurze są używane przez organizację. Można na przykład skonfigurować zasady sesji, które umożliwiają dostęp tylko zarządzanym urządzeniom do aplikacji sztucznej inteligencji. Prostszym przykładem może być skonfigurowanie zasad w celu monitorowania ruchu z urządzeń niezarządzanych, dzięki czemu można analizować ryzyko związane z tym ruchem przed zastosowaniem bardziej rygorystycznych zasad.

Diagram przedstawiający sposób uzyskiwania dostępu do aplikacji w chmurze za pośrednictwem zasad kontroli sesji za pomocą Defender for Cloud Apps.

Na tej ilustracji:

  • Dostęp do sankcjonowanych aplikacji w chmurze przez użytkowników i urządzenia w organizacji jest kierowany przez usługę Defender for Cloud Apps, gdzie zasady sesji mogą być stosowane do określonych aplikacji.
  • Aplikacje w chmurze, które nie zostały zaakceptowane lub wyraźnie odrzucone, nie są dotknięte.

Usługa Defender for Cloud Apps dodatkowo udostępnia dedykowane wykrycia dla rozwiązania Microsoft 365 Copilot. Zespoły ds. zabezpieczeń mogą wykrywać podejrzane interakcje użytkownika z rozwiązaniem Copilot i reagować na nie i ograniczać zagrożenie. Na przykład gdy użytkownik uzyskuje dostęp do poufnych danych za pośrednictwem ryzykownego adresu IP, usługa Defender for Cloud Apps wyzwala alert flagujący tę podejrzaną aktywność z ważnymi szczegółami, w tym techniką ataku MITRE, adresem IP i innymi polami, których zespoły ds. zabezpieczeń mogą użyć do dalszego zbadania tego alertu.

Użyj następujących zasobów jako następnych kroków.

Zadanie Zalecane zasoby
Zapoznaj się z krokami 5–8 w tym przepływie wdrażania usługi Defender for Cloud Apps Odnajdywanie aplikacji w chmurze i zarządzanie nimi
Zapoznaj się z tym samouczkiem wideo dotyczącym zarządzania aplikacjami Odkrywanie, które aplikacje generacyjne sztucznej inteligencji są używane w twoim środowisku przy użyciu usługi Defender for Cloud Apps — YouTube
Tworzenie zasad odnajdywania aplikacji Tworzenie zasad odnajdywania w chmurze
Ocena oceny ryzyka dla nowo odnalezionych aplikacji Wykaz aplikacji w chmurze i oceny ryzyka
Sankcje lub blokowanie nowych aplikacji Zarządzanie odnalezionymi aplikacjami
Stosowanie zasad sesji do aplikacji sztucznej inteligencji w celu zwiększenia kontroli i widoczności Tworzenie zasad sesji
Dowiedz się, jak używać ochrony przed zagrożeniami dla rozwiązania Microsoft 365 Copilot Nowe wykrywanie zagrożeń dla rozwiązania Microsoft Copilot dla platformy Microsoft 365

Krok 2. Stosowanie ochrony sztucznej inteligencji w usłudze Defender for Cloud

W poprzednim artykule z tej serii „Odkryj aplikacje AI i dane” skupiono się na odkrywaniu obciążeń generatywnej AI i modeli działających w Twoim środowisku. Ten artykuł koncentruje się na ochronie aplikacji GenAI w całym cyklu życia aplikacji podczas tworzenia i używania niestandardowych aplikacji sztucznej inteligencji.

Organizacje wybierają tworzenie nowych aplikacji GenAI i osadzanie sztucznej inteligencji w istniejących aplikacjach w celu zwiększenia wydajności biznesowej i produktywności. Osoby atakujące coraz częściej chcą wykorzystać aplikacje w celu zmiany zaprojektowanego celu modelu sztucznej inteligencji przy użyciu nowych ataków, takich jak wstrzyknięcia monitów, ataki portfelowe, kradzież modelu i zatrucie danych, przy jednoczesnym zwiększeniu podatności na znane zagrożenia, takie jak naruszenia danych i odmowa usługi. Zespoły ds. zabezpieczeń muszą być przygotowane i upewnić się, że mają odpowiednie mechanizmy kontroli zabezpieczeń dla aplikacji sztucznej inteligencji i wykrywania, które dotyczą nowego środowiska zagrożeń.

Usługa Microsoft Defender for Cloud pomaga organizacjom zabezpieczyć środowiska hybrydowe i wielochmurowe z kodu do chmury. Usługa Defender dla chmury obejmuje funkcje zabezpieczeń i ochrony przed zagrożeniami, aby umożliwić organizacjom ochronę aplikacji GenAI utworzonych w przedsiębiorstwie w całym cyklu życia aplikacji:

  • Ciągłe odnajdywanie składników aplikacji GenAI i artefaktów sztucznej inteligencji z kodu do chmury.
  • Eksplorowanie i korygowanie zagrożeń dla aplikacji GenAI za pomocą wbudowanych zaleceń w celu wzmocnienia poziomu zabezpieczeń.
  • Identyfikowanie i korygowanie toksycznych kombinacji w aplikacjach GenAI przy użyciu analizy ścieżki ataku.
  • Wykrywanie w aplikacjach GenAI obsługiwanych przez osłony zabezpieczeń zawartości usługi Azure AI, sygnały analizy zagrożeń firmy Microsoft i kontekstowe monitorowanie aktywności.
  • Wyszukiwanie i badanie ataków w aplikacjach GenAI z wbudowaną integracją z usługą Microsoft Defender.

Zacznij od możliwości zarządzania stanem zabezpieczeń z wykorzystaniem sztucznej inteligencji w Defender Cloud Security Posture Management (CSPM). Usługa Defender CSPM automatycznie i stale odnajduje wdrożone obciążenia sztucznej inteligencji, zapewniając bezagentowy i szczegółowy wgląd w obecność i konfigurację modeli AI, zestawów SDK i technologii używanych w usługach sztucznej inteligencji, takich jak Azure OpenAI Service, Azure Machine Learning i Amazon Bedrock.

CSPM stale przedstawia kontekstowe problemy z zabezpieczeniami i sugeruje zalecenia dotyczące zabezpieczeń oparte na ryzyku dostosowane do określania priorytetów krytycznych luk w obciążeniach sztucznej inteligencji. Odpowiednie zalecenia dotyczące zabezpieczeń są również wyświetlane w obrębie samego zasobu usługi Azure OpenAI w witrynie Azure Portal, zapewniając deweloperom lub właścicielom obciążeń bezpośredni dostęp do zaleceń i pomagając w szybszym korygowaniu.

Możliwość analizy ścieżki ataku może identyfikować zaawansowane zagrożenia dla obciążeń związanych ze sztuczną inteligencją, w tym scenariusze bezpieczeństwa danych, w których dane dotyczące uzgadniania lub dostrajania są wystawione na działanie internetu poprzez ruch boczny i są wrażliwe na ataki zatrucia danych.

Następnie, zachowaj bezpieczeństwo w czasie działania dzięki ochronie przed zagrożeniami dla pracy sztucznej inteligencji. Usługa Defender for Cloud obejmuje ochronę przed zagrożeniami dla obciążeń sztucznej inteligencji. Ochrona przed zagrożeniami dla sztucznej inteligencji korzysta z natywnej integracji z usługą Azure OpenAI Service, osłonami bezpieczeństwa zawartości usługi Azure AI i analizą zagrożeń firmy Microsoft w celu dostarczania kontekstowych i praktycznych alertów zabezpieczeń. Ochrona przed zagrożeniami dla obciążeń sztucznej inteligencji umożliwia zespołom ds. zabezpieczeń monitorowanie aplikacji opartych na usłudze Azure OpenAI w czasie rzeczywistym pod kątem złośliwych działań związanych z bezpośrednimi i pośrednimi atakami polegającymi na wstrzyknięciu, wyciekami poufnych danych, zanieczyszczeniem danych, a także nadużyciami zasobów portfela lub atakami typu "odmowa usługi".

Aby wykonać następne kroki, skorzystaj z poniższych zasobów.

Zadanie Zalecane zasoby
Przejrzyj najważniejsze scenariusze opisane w tym blogu Bezpieczne aplikacje generacyjne sztucznej inteligencji za pomocą usługi Microsoft Defender for Cloud
Korzystanie z CSPM w celu uzyskania wglądu w zagrożenia związane ze sztuczną inteligencją w środowisku Ochrona zasobów za pomocą programu Defender CSPM
Przejrzyj pulpit zabezpieczeń danych i sztucznej inteligencji (wersja próbna)
Włączanie ochrony przed zagrożeniami dla obciążeń sztucznej inteligencji (wersja zapoznawcza) Włączanie ochrony przed zagrożeniami dla obciążeń sztucznej inteligencji (wersja zapoznawcza)
Alerty dotyczące obciążeń sztucznej inteligencji (wersja zapoznawcza)

Następny krok zabezpieczania sztucznej inteligencji

Po ochronie aplikacji i danych sztucznej inteligencji w organizacji następnym krokiem jest nadzorowanie aplikacji sztucznej inteligencji w celu spełnienia wymagań dotyczących zgodności z przepisami:

  • Ocenianie i wzmacnianie poziomu zgodności z przepisami.
  • Zaimplementuj kontrolki, aby zarządzać użyciem aplikacji i danych sztucznej inteligencji.

Zobacz następny artykuł z tej serii: Jak mogę zarządzać sztuczną inteligencją pod kątem zgodności?