Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tym artykule opisano sposób używania funkcji specyficznych dla ochrony aplikacji sztucznej inteligencji i danych, z którymi korzystają.
- Ochrona poufnych danych w monitach użytkownika i danych generowanych przez sztuczną inteligencję
- Obrona przed pojawiającymi się zagrożeniami, takimi jak wstrzyknięcia poleceń
Jest to trzeci artykuł z serii. Jeśli nie wykonano jeszcze zadań opisanych w artykule Przygotowanie do zabezpieczeń sztucznej inteligencji i Odnajdywanie aplikacji i danych sztucznej inteligencji, zacznij od tych artykułów, aby przygotować środowisko z funkcjami określonymi w tym artykule.
Użyj tego artykułu razem z tym zasobem:
- Cloud Adoption Framework (CAF) for AI — proces zabezpieczania sztucznej inteligencji
Firma Microsoft oferuje szeroki zestaw możliwości ochrony aplikacji i danych sztucznej inteligencji. W tym artykule omówiono je w dwóch kategoriach — ochrona danych i ochrona przed zagrożeniami.
W poniższych dwóch tabelach opisano ilustrację, a także przedstawiono kroki implementowania tych funkcji.
Tabela 1 — możliwości ochrony danych
| Krok | Zadanie | Scope |
|---|---|---|
| 1 | Zastosuj kontrolki nadmiernego udostępniania w SharePoint, aby szybko wyłączyć poufne witryny i dane spod działania aplikacji AI. | Witryny i pliki w środowisku platformy Microsoft 365. |
| 2 | Użyj funkcji Zarządzania stanem zabezpieczeń danych (DSPM) w kontekście sztucznej inteligencji, aby dowiedzieć się, gdzie odbywa się nadmierne udostępnianie, oraz znaleźć luki w politykach etykiet poufności i DLP. | Copilotsi, agenci i inne aplikacje sztucznej inteligencji, które korzystają z dużych modeli językowych innych firm (LLM), w tym Obsługiwane witryny AI. Aplikacje sztucznej inteligencji u innych dostawców usług w chmurze za pośrednictwem zestawu SDK usługi Purview. |
| 3 | Kontynuuj postęp w zakresie etykiet poufności i zasad ochrony przed utratą danych (DLP). | Witryny, pliki i urządzenia w środowisku platformy Microsoft 365. Aplikacje SaaS w przypadku integracji z usługą Defender for Cloud Apps. Aplikacje sztucznej inteligencji na platformie Azure i innych dostawców usług w chmurze za pośrednictwem zestawu SDK usługi Purview. |
| 4 | W ramach wewnętrznego zarządzania ryzykiem (IRM) zastosuj szablon ryzykownej sztucznej inteligencji, aby zidentyfikować ryzykowne zachowanie w aplikacjach sztucznej inteligencji. | Witryny internetowe z generatywną sztuczną inteligencją. Microsoft 365 Copilot, Microsoft Copilot, Copilot Studio, Azure AI services. Aplikacje sztucznej inteligencji u innych dostawców usług w chmurze za pośrednictwem zestawu SDK usługi Purview. |
| 5 | Skonfiguruj adaptacyjną ochronę dla zarządzania ryzykiem wewnętrznym, aby zwiększyć ochronę danych na podstawie ryzyka użytkowników. | Witryny, pliki i urządzenia w środowisku platformy Microsoft 365. |
Tabela 2 — Możliwości ochrony przed zagrożeniami
| Krok | Zadanie | Scope |
|---|---|---|
| 1 | Użyj usługi Defender for Cloud Apps, aby otrzymywać alerty o używaniu nowych aplikacji sztucznej inteligencji, obliczać oceny ryzyka dla aplikacji sztucznej inteligencji oraz zezwalać na te aplikacje w danym środowisku lub blokować je. Usługa Defender for Cloud Apps zapewnia dodatkową ochronę rozwiązania Microsoft 365 Copilot. | Aplikacje SaaS AI |
| 2 | Defender dla Chmury Odnajdywanie wdrożonych obciążeń sztucznej inteligencji w środowisku i uzyskiwanie szczegółowych informacji o zabezpieczeniach za pomocą usługi Microsoft Defender for Cloud |
Niestandardowe aplikacje sztucznej inteligencji oparte na sztucznej inteligencji na platformie Azure |
Ochrona danych sztucznej inteligencji
Te możliwości pomagają wydajnie dowiedzieć się i ograniczyć najważniejsze zagrożenia związane z nadmiernym udostępnianiem danych, użyciem poufnych danych i ryzykownymi zachowaniami użytkowników. Te możliwości są ograniczone do ochrony aplikacji i danych sztucznej inteligencji w danym środowisku.
Krok 1. Stosowanie kontrolek oversharing programu SharePoint
Kontrole nadmiernego udostępniania w SharePoint obejmują wbudowane mechanizmy, takie jak uprawnienia o określonym zakresie, oraz dodatkowe funkcjonalności w usłudze SharePoint Advanced Management, które wzmacniają zarządzanie zawartością podczas wdrażania rozwiązania Microsoft Copilot. Kontrolki oversharing programu SharePoint ułatwiają:
- Tymczasowo ogranicz wyszukiwanie narzędzia Copilot do listy określonych witryn (wyszukiwanie w programie SharePoint z ograniczeniami).
- Szybko zidentyfikuj witryny, które potencjalnie zawierają zbyt udostępnione dane lub poufną zawartość (raporty dotyczące zarządzania dostępem do danych).
- Oflaguj witryny, aby użytkownicy nie mogli znaleźć ich za pośrednictwem funkcji wyszukiwania w całej organizacji ani wyszukiwania w całej organizacji (funkcja odnajdywania zawartości z ograniczeniami w usłudze SharePoint Advanced Management).
- utwórz nieaktywne zasady witryny, aby automatycznie zarządzać nieaktywne witryny i zmniejszać je (Zarządzanie zaawansowane programu SharePoint).
- Ogranicz dostęp do witryn programu SharePoint i usługi OneDrive do użytkowników w określonej grupie (zasady kontroli dostępu z ograniczeniami w usłudze SharePoint Advanced Management).
Aby rozpocząć korzystanie z kontrolek oversharing, użyj następujących zasobów.
| Zadanie | Zalecane zasoby |
|---|---|
| Zapoznaj się z ilustracją i opisem opcji zarządzania udostępnianiem, których można używać z usługą Microsoft 365 Copilot | architektura ochrony danych i audytowania w Microsoft 365 Copilot |
| Strategia do pobrania, aby zapobiec nadmiernemu udostępnianiu | Plan Microsoft 365 Copilot dotyczący nadmiernego dzielenia się |
| Dowiedz się więcej o zaawansowanym zarządzaniu programem SharePoint | Microsoft SharePoint Premium — omówienie zaawansowanego zarządzania programem SharePoint |
Krok 2 — Ochrona danych za pośrednictwem dsPM dla sztucznej inteligencji
Użyj DSPM w kontekście sztucznej inteligencji, aby dowiedzieć się, gdzie odbywa się nadmierne udostępnianie, i zidentyfikować luki w zakresie polityk dotyczących etykiet poufności i zasad DLP.
Doskonałym miejscem na początek jest zapoznanie się z raportem ocen tygodniowych.
Możesz przejść do szczegółów poszczególnych raportów, aby dowiedzieć się więcej o tym, gdzie występują luki w kontrolach zapobiegających nadmiernemu udostępnianiu, etykietach i zasadach ochrony przed utratą danych (DLP), dzięki czemu możesz te problemy szybko naprawić.
Dla każdego raportu DSPM dla sztucznej inteligencji udostępnia zalecenia dotyczące poprawy bezpieczeństwa danych. Użyj linku Wyświetl wszystkie zalecenia lub Zalecenia w okienku nawigacji, aby wyświetlić wszystkie dostępne zalecenia dla Twojego dzierżawcy i ich stan.
Skorzystaj z poniższych zasobów, aby chronić aplikacje i dane sztucznej inteligencji za pomocą platformy DSPM dla sztucznej inteligencji.
| Zadanie | Zalecane zasoby |
|---|---|
| Dowiedz się więcej o DSPM dla sztucznej inteligencji | Jak używać platformy DSPM dla sztucznej inteligencji |
| Dowiedz się więcej o wymaganiach wstępnych oraz o tym, jak działają zasady jednoklikowe i zasady domyślne. | Zagadnienia dotyczące platformy DSPM dla sztucznej inteligencji |
| W przypadku aplikacji sztucznej inteligencji u innych dostawców chmury dowiedz się, jak przetestować integrację z platformą DSPM dla sztucznej inteligencji przy użyciu zestawu SDK usługi Purview | Jak przetestować aplikację sztucznej inteligencji zintegrowaną z zestawem Purview SDK |
Krok 3. Kontynuuj identyfikowanie luk w etykietach poufności i zasadach DLP
W obszarze Przygotowanie do zabezpieczeń sztucznej inteligencji użyto narzędzi do zarządzania stanem zabezpieczeń danych usługi Microsoft Purview, DSPM i DSPM dla sztucznej inteligencji, aby określić priorytety ochrony poufnych danych. Przejdź ponownie do tych narzędzi, aby zidentyfikować luki w zakresie zasad i dowiedzieć się, gdzie należy nadal inwestować w stosowanie etykiet poufności i zasad DLP. Ponadto rozszerz etykiety poufności i zasady DLP do aplikacji SaaS przy użyciu usługi Defender for Cloud Apps.
Skorzystaj z poniższych zasobów, aby poczynić postępy w usłudze Microsoft Purview.
Krok 4. Stosowanie szablonu ryzykownej sztucznej inteligencji w rozwiązaniu Insider Risk Management (IRM)
Usługa Microsoft Purview Insider Risk Management (IRM) zawiera wstępnie zdefiniowane szablony zasad, które można zastosować do środowiska, w tym ryzykowne użycie sztucznej inteligencji. Szablony usługi IRM to wstępnie zdefiniowane warunki zasad definiujące typy wskaźników ryzyka i model oceniania ryzyka używany przez zasady.
Zasady użycia ryzykownej sztucznej inteligencji mogą pomóc wykrywać i włączać ocenianie ryzyka dla monitów i odpowiedzi w narzędziach sztucznej inteligencji w organizacji. IRM pomaga badać i podejmować działania w odniesieniu do ryzykownych działań związanych ze sztuczną inteligencją.
Skorzystaj z poniższych zasobów, aby rozpocząć pracę z usługą Insider Risk Management i zastosować szablon zasad ryzykownych użycia sztucznej inteligencji.
| Zadanie | Zalecane zasoby |
|---|---|
| Rozpocznij pracę z zarządzaniem ryzykiem wewnętrznym i poznaj najważniejsze scenariusze, które przynoszą korzyści twojej organizacji | Dowiedz się więcej o zarządzaniu ryzykiem poufnym |
| Zastosuj szablon ryzykownej sztucznej inteligencji | Dowiedz się więcej o szablonach zasad zarządzania ryzykiem niejawnych | Microsoft Learn |
| Dowiedz się więcej na temat kluczowych scenariuszy dotyczących sztucznej inteligencji i wyświetlania przykładowych raportów | Zarządzanie ryzykiem niejawnym ułatwia wgląd w ryzykowną widoczność użycia sztucznej inteligencji i badania zabezpieczeń |
| W przypadku aplikacji sztucznej inteligencji opracowanych za pomocą zestawu SDK usługi Purview przetestuj integrację rozwiązania Insider Risk Management | Jak przetestować aplikację sztucznej inteligencji zintegrowaną z zestawem Purview SDK |
Krok 5—Konfigurowanie adaptacyjnej ochrony na potrzeby zarządzania ryzykiem wynikającym z działań wewnętrznych
Adaptacyjna ochrona w rozwiązaniu Microsoft Purview Insider Risk Management dynamicznie przypisuje użytkownikom poziom ryzyka, a następnie stosuje zasady tworzone dla użytkowników z umiarkowanym lub podwyższonym ryzykiem. Zasady mogą implementować zwiększone akcje zapobiegania utracie danych, zachowywanie usuniętej zawartości lub wymuszanie wyższych wymagań dotyczących dostępu warunkowego.
Skorzystaj z poniższych zasobów, aby rozpocząć pracę z funkcją Adaptacyjna ochrona.
| Zadanie | Zalecane zasoby |
|---|---|
| Rozpocznij pracę z zarządzaniem ryzykiem wewnętrznym i poznaj najważniejsze scenariusze, które przynoszą korzyści twojej organizacji | Dowiedz się więcej o zarządzaniu ryzykiem poufnym |
| Dowiedz się więcej na temat kluczowych scenariuszy dotyczących sztucznej inteligencji i wyświetlania przykładowych raportów | Zarządzanie ryzykiem niejawnym ułatwia wgląd w ryzykowną widoczność użycia sztucznej inteligencji i badania zabezpieczeń |
| Zastosuj szablon ryzykownej sztucznej inteligencji | Dowiedz się więcej o szablonach zasad zarządzania ryzykiem poufnym |
| Analizowanie i reagowanie na działania związane z ryzykiem wewnętrznym |
Badanie działań związanych z zarządzaniem ryzykiem wewnętrznym Podejmowanie działań dotyczących przypadków zarządzania ryzykiem poufnym |
Jak najlepiej wykorzystać ochronę przed zagrożeniami dla sztucznej inteligencji
Usługi Defender for Cloud Apps i Defender for Cloud obejmują możliwości informowania o nowym użyciu aplikacji sztucznej inteligencji i stosowaniu odpowiednich mechanizmów kontroli.
Krok 1. Klasyfikacja i ochrona aplikacji sztucznej inteligencji za pomocą usługi Defender for Cloud Apps
Poprzedni artykuł z tej serii : Odnajdywanie aplikacji sztucznej inteligencji i danych koncentruje się na używaniu usługi Defender for Cloud Apps do odnajdywania aplikacji sztucznej inteligencji w twoim środowisku. Ten artykuł zachęca organizacje do korzystania z usługi Defender for Cloud Apps, aby śledzić nowe aplikacje sztucznej inteligencji, oceniać ryzyko, które stwarzają one dla Twojego środowiska, zatwierdzać lub blokować te aplikacje oraz stosować mechanizmy kontroli sesji do aplikacji.
Najpierw utwórz zasady, aby automatycznie wyzwolić alert, gdy nowa aplikacja generacyjna sztucznej inteligencji jest używana w organizacji.
Następnie oceń ocenę ryzyka dla nowo odnalezionych aplikacji. Możesz również dostosować ocenę ryzyka. Na przykład wysoce regulowane organizacje mogą chcieć zmienić wagę określonych atrybutów oceny ryzyka. Można również zastąpić ocenę ryzyka.
Zdecyduj, czy podjąć sankcje, czy zablokować każdą aplikację. Organizacje mogą blokować użycie aplikacji z różnych powodów. Niektórzy obawiają się, że poufne dane będą nieświadomie udostępniane aplikacjom i udostępniane później odbiorcom spoza organizacji. Może to spowodować zablokowanie użycia przez organizację wszystkich niezarządzanych aplikacji sztucznej inteligencji. Podczas gdy inne organizacje muszą upewnić się, że wszystkie aplikacje używane są zgodne z różnymi standardami, takimi jak SOC2 lub HIPAA.
Na koniec w przypadku aplikacji, które usankcjonujesz, zdecyduj, czy chcesz zastosować zasady sesji w celu zapewnienia większej kontroli i widoczności. Zasady sesji umożliwiają stosowanie parametrów do sposobu, w jaki aplikacje w chmurze są używane przez organizację. Można na przykład skonfigurować zasady sesji, które umożliwiają dostęp tylko zarządzanym urządzeniom do aplikacji sztucznej inteligencji. Prostszym przykładem może być skonfigurowanie zasad w celu monitorowania ruchu z urządzeń niezarządzanych, dzięki czemu można analizować ryzyko związane z tym ruchem przed zastosowaniem bardziej rygorystycznych zasad.
Na tej ilustracji:
- Dostęp do sankcjonowanych aplikacji w chmurze przez użytkowników i urządzenia w organizacji jest kierowany przez usługę Defender for Cloud Apps, gdzie zasady sesji mogą być stosowane do określonych aplikacji.
- Aplikacje w chmurze, które nie zostały zaakceptowane lub wyraźnie odrzucone, nie są dotknięte.
Usługa Defender for Cloud Apps dodatkowo udostępnia dedykowane wykrycia dla rozwiązania Microsoft 365 Copilot. Zespoły ds. zabezpieczeń mogą wykrywać podejrzane interakcje użytkownika z rozwiązaniem Copilot i reagować na nie i ograniczać zagrożenie. Na przykład gdy użytkownik uzyskuje dostęp do poufnych danych za pośrednictwem ryzykownego adresu IP, usługa Defender for Cloud Apps wyzwala alert flagujący tę podejrzaną aktywność z ważnymi szczegółami, w tym techniką ataku MITRE, adresem IP i innymi polami, których zespoły ds. zabezpieczeń mogą użyć do dalszego zbadania tego alertu.
Użyj następujących zasobów jako następnych kroków.
| Zadanie | Zalecane zasoby |
|---|---|
| Zapoznaj się z krokami 5–8 w tym przepływie wdrażania usługi Defender for Cloud Apps | Odnajdywanie aplikacji w chmurze i zarządzanie nimi |
| Zapoznaj się z tym samouczkiem wideo dotyczącym zarządzania aplikacjami | Odkrywanie, które aplikacje generacyjne sztucznej inteligencji są używane w twoim środowisku przy użyciu usługi Defender for Cloud Apps — YouTube |
| Tworzenie zasad odnajdywania aplikacji | Tworzenie zasad odnajdywania w chmurze |
| Ocena oceny ryzyka dla nowo odnalezionych aplikacji | Wykaz aplikacji w chmurze i oceny ryzyka |
| Sankcje lub blokowanie nowych aplikacji | Zarządzanie odnalezionymi aplikacjami |
| Stosowanie zasad sesji do aplikacji sztucznej inteligencji w celu zwiększenia kontroli i widoczności | Tworzenie zasad sesji |
| Dowiedz się, jak używać ochrony przed zagrożeniami dla rozwiązania Microsoft 365 Copilot | Nowe wykrywanie zagrożeń dla rozwiązania Microsoft Copilot dla platformy Microsoft 365 |
Krok 2. Stosowanie ochrony sztucznej inteligencji w usłudze Defender for Cloud
W poprzednim artykule z tej serii „Odkryj aplikacje AI i dane” skupiono się na odkrywaniu obciążeń generatywnej AI i modeli działających w Twoim środowisku. Ten artykuł koncentruje się na ochronie aplikacji GenAI w całym cyklu życia aplikacji podczas tworzenia i używania niestandardowych aplikacji sztucznej inteligencji.
Organizacje wybierają tworzenie nowych aplikacji GenAI i osadzanie sztucznej inteligencji w istniejących aplikacjach w celu zwiększenia wydajności biznesowej i produktywności. Osoby atakujące coraz częściej chcą wykorzystać aplikacje w celu zmiany zaprojektowanego celu modelu sztucznej inteligencji przy użyciu nowych ataków, takich jak wstrzyknięcia monitów, ataki portfelowe, kradzież modelu i zatrucie danych, przy jednoczesnym zwiększeniu podatności na znane zagrożenia, takie jak naruszenia danych i odmowa usługi. Zespoły ds. zabezpieczeń muszą być przygotowane i upewnić się, że mają odpowiednie mechanizmy kontroli zabezpieczeń dla aplikacji sztucznej inteligencji i wykrywania, które dotyczą nowego środowiska zagrożeń.
Usługa Microsoft Defender for Cloud pomaga organizacjom zabezpieczyć środowiska hybrydowe i wielochmurowe z kodu do chmury. Usługa Defender dla chmury obejmuje funkcje zabezpieczeń i ochrony przed zagrożeniami, aby umożliwić organizacjom ochronę aplikacji GenAI utworzonych w przedsiębiorstwie w całym cyklu życia aplikacji:
- Ciągłe odnajdywanie składników aplikacji GenAI i artefaktów sztucznej inteligencji z kodu do chmury.
- Eksplorowanie i korygowanie zagrożeń dla aplikacji GenAI za pomocą wbudowanych zaleceń w celu wzmocnienia poziomu zabezpieczeń.
- Identyfikowanie i korygowanie toksycznych kombinacji w aplikacjach GenAI przy użyciu analizy ścieżki ataku.
- Wykrywanie w aplikacjach GenAI obsługiwanych przez osłony zabezpieczeń zawartości usługi Azure AI, sygnały analizy zagrożeń firmy Microsoft i kontekstowe monitorowanie aktywności.
- Wyszukiwanie i badanie ataków w aplikacjach GenAI z wbudowaną integracją z usługą Microsoft Defender.
Zacznij od możliwości zarządzania stanem zabezpieczeń z wykorzystaniem sztucznej inteligencji w Defender Cloud Security Posture Management (CSPM). Usługa Defender CSPM automatycznie i stale odnajduje wdrożone obciążenia sztucznej inteligencji, zapewniając bezagentowy i szczegółowy wgląd w obecność i konfigurację modeli AI, zestawów SDK i technologii używanych w usługach sztucznej inteligencji, takich jak Azure OpenAI Service, Azure Machine Learning i Amazon Bedrock.
CSPM stale przedstawia kontekstowe problemy z zabezpieczeniami i sugeruje zalecenia dotyczące zabezpieczeń oparte na ryzyku dostosowane do określania priorytetów krytycznych luk w obciążeniach sztucznej inteligencji. Odpowiednie zalecenia dotyczące zabezpieczeń są również wyświetlane w obrębie samego zasobu usługi Azure OpenAI w witrynie Azure Portal, zapewniając deweloperom lub właścicielom obciążeń bezpośredni dostęp do zaleceń i pomagając w szybszym korygowaniu.
Możliwość analizy ścieżki ataku może identyfikować zaawansowane zagrożenia dla obciążeń związanych ze sztuczną inteligencją, w tym scenariusze bezpieczeństwa danych, w których dane dotyczące uzgadniania lub dostrajania są wystawione na działanie internetu poprzez ruch boczny i są wrażliwe na ataki zatrucia danych.
Następnie, zachowaj bezpieczeństwo w czasie działania dzięki ochronie przed zagrożeniami dla pracy sztucznej inteligencji. Usługa Defender for Cloud obejmuje ochronę przed zagrożeniami dla obciążeń sztucznej inteligencji. Ochrona przed zagrożeniami dla sztucznej inteligencji korzysta z natywnej integracji z usługą Azure OpenAI Service, osłonami bezpieczeństwa zawartości usługi Azure AI i analizą zagrożeń firmy Microsoft w celu dostarczania kontekstowych i praktycznych alertów zabezpieczeń. Ochrona przed zagrożeniami dla obciążeń sztucznej inteligencji umożliwia zespołom ds. zabezpieczeń monitorowanie aplikacji opartych na usłudze Azure OpenAI w czasie rzeczywistym pod kątem złośliwych działań związanych z bezpośrednimi i pośrednimi atakami polegającymi na wstrzyknięciu, wyciekami poufnych danych, zanieczyszczeniem danych, a także nadużyciami zasobów portfela lub atakami typu "odmowa usługi".
Aby wykonać następne kroki, skorzystaj z poniższych zasobów.
| Zadanie | Zalecane zasoby |
|---|---|
| Przejrzyj najważniejsze scenariusze opisane w tym blogu | Bezpieczne aplikacje generacyjne sztucznej inteligencji za pomocą usługi Microsoft Defender for Cloud |
| Korzystanie z CSPM w celu uzyskania wglądu w zagrożenia związane ze sztuczną inteligencją w środowisku |
Ochrona zasobów za pomocą programu Defender CSPM Przejrzyj pulpit zabezpieczeń danych i sztucznej inteligencji (wersja próbna) |
| Włączanie ochrony przed zagrożeniami dla obciążeń sztucznej inteligencji (wersja zapoznawcza) | Włączanie ochrony przed zagrożeniami dla obciążeń sztucznej inteligencji (wersja zapoznawcza) Alerty dotyczące obciążeń sztucznej inteligencji (wersja zapoznawcza) |
Następny krok zabezpieczania sztucznej inteligencji
Po ochronie aplikacji i danych sztucznej inteligencji w organizacji następnym krokiem jest nadzorowanie aplikacji sztucznej inteligencji w celu spełnienia wymagań dotyczących zgodności z przepisami:
- Ocenianie i wzmacnianie poziomu zgodności z przepisami.
- Zaimplementuj kontrolki, aby zarządzać użyciem aplikacji i danych sztucznej inteligencji.
Zobacz następny artykuł z tej serii: Jak mogę zarządzać sztuczną inteligencją pod kątem zgodności?