Udostępnij przez


Omówienie — zarządzanie stanem zabezpieczeń sztucznej inteligencji

Plan zarządzania stanem zabezpieczeń w chmurze (CSPM) w usłudze Microsoft Defender for Cloud zabezpiecza środowiska chmurowe utworzone w przedsiębiorstwie, wielochmurowe lub hybrydowe. Te środowiska obejmują platformę Azure, usługi Amazon Web Services (AWS) i usługę Google Cloud Platform (GCP) Vertex AI. Plan CSPM programu Defender zabezpiecza aplikacje generatywnej sztucznej inteligencji i agentów AI (wersja preview) w całym cyklu życia.

Defender dla Chmury zmniejsza ryzyko obciążeń sztucznej inteligencji między chmurami przez:

  • Odkrywanie generatywnego Bilansu Materiałów AI (AI BOM), który obejmuje składniki aplikacji, dane i artefakty AI od kodu do chmury.
  • Wzmocnienie poziomu zabezpieczeń aplikacji generujących sztuczną inteligencję dzięki wbudowanym rekomendacjom oraz eksplorowaniu i korygowaniu zagrożeń bezpieczeństwa.
  • Korzystanie z analizy ścieżki ataku w celu identyfikowania i korygowania zagrożeń.

Diagram cyklu projektowania, który jest objęty zarządzaniem stanem zabezpieczeń sztucznej inteligencji w usłudze Defender for Cloud.

Ważne

Aby włączyć funkcje zarządzania stanem zabezpieczeń sztucznej inteligencji na koncie platformy AWS, które już:

  • Jest połączony z kontem platformy Azure.
  • Włączono CSPM w usłudze Defender.
  • Ma typ uprawnień ustawiony jako Najniższy dostęp uprzywilejowany.

Należy ponownie skonfigurować uprawnienia dla tego łącznika, aby włączyć odpowiednie uprawnienia, wykonując następujące kroki:

  1. W witrynie Azure Portal przejdź do strony Ustawienia środowiska i wybierz odpowiedni łącznik platformy AWS.
  2. Wybierz pozycję Konfiguruj dostęp.
  3. Upewnij się, że typ uprawnień jest ustawiony na Dostęp z najmniejszymi uprawnieniami.
  4. Wykonaj kroki 7–11 , aby zakończyć konfigurację.

Odnajdywanie aplikacji generacyjnych sztucznej inteligencji

Defender dla Chmury odnajduje obciążenia sztucznej inteligencji i identyfikuje szczegóły modelu BOM sztucznej inteligencji organizacji. Ta widoczność umożliwia identyfikowanie i rozwiązywanie problemów z lukami w zabezpieczeniach oraz ochronę generowanych aplikacji sztucznej inteligencji przed potencjalnymi zagrożeniami.

Defender dla Chmury automatycznie i stale odnajduje wdrożone obciążenia sztucznej inteligencji w następujących usługach:

  • Azure OpenAI Service
  • Centrum AI Azure
  • Azure Machine Learning
  • Amazon Bedrock
  • Google Vertex AI

Defender dla Chmury mogą również wykrywać luki w zabezpieczeniach w zależnościach biblioteki generowania sztucznej inteligencji, takich jak TensorFlow, PyTorch i Langchain, skanując kod źródłowy infrastruktury jako kodu (IaC) pod kątem błędów konfiguracji i obrazów kontenerów pod kątem luk w zabezpieczeniach. Regularne aktualizowanie lub stosowanie poprawek bibliotek może zapobiegać wykorzystaniu luk w zabezpieczeniach, chronić generujące aplikacje sztucznej inteligencji i utrzymywać ich integralność.

Dzięki tym funkcjom Defender dla Chmury zapewnia pełny wgląd obciążeń sztucznej inteligencji z kodu do chmury.

Odnajdywanie agentów sztucznej inteligencji (wersja zapoznawcza)

Usługa Defender for Cloud odnajduje obciążenia agenta sztucznej inteligencji i identyfikuje szczegóły modelu BOM sztucznej inteligencji organizacji. Ta widoczność umożliwia identyfikowanie i rozwiązywanie problemów z lukami w zabezpieczeniach oraz ochronę generowanych aplikacji agentów sztucznej inteligencji przed potencjalnymi zagrożeniami.

Ważne

Ta funkcja jest obecnie dostępna w wersji zapoznawczej i jest dostępna w usłudze Microsoft Defender dla CSPM bez dodatkowych kosztów. Wymagania dotyczące licencjonowania mogą ulec zmianie, gdy funkcja stanie się ogólnie dostępna. Jeśli wystąpi zmiana cen, funkcja zostanie automatycznie wyłączona i otrzymasz powiadomienie. Aby kontynuować korzystanie z tej funkcji, może być potrzebna nowa licencja, aby ponownie włączyć tę funkcję.

Usługa Defender for Cloud automatycznie i stale odnajduje wdrożonych agentów sztucznej inteligencji w następujących usługach:

  • Agenci Azure Foundry AI (wymagają dostępu do Defender for Cloud z włączonym planem Defender CSPM)
  • Agenci sztucznej inteligencji programu Copilot Studio (wymaga licencji usługi Microsoft Defender for Cloud Apps )

Po włączeniu planu programu Defender CSPM w ramach subskrypcji platformy Azure portal automatycznie odnajduje i inwentaryzuje agentów sztucznej inteligencji wdrożonych za pomocą rozwiązania Azure AI Foundry i wypełnia spis sztucznej inteligencji listą odnalezionych agentów sztucznej inteligencji.

Dowiedz się, jak chronić agentów sztucznej inteligencji (wersja zapoznawcza).

Zmniejszanie ryzyka generowania aplikacji sztucznej inteligencji

CSPM w usłudze Defender zapewnia kontekstowy wgląd w stan zabezpieczeń sztucznej inteligencji organizacji. Możesz zmniejszyć ryzyko w ramach obciążeń sztucznej inteligencji, korzystając z zaleceń dotyczących zabezpieczeń i analizy ścieżki ataków.

Eksplorowanie zagrożeń przy użyciu zaleceń

Defender dla Chmury ocenia obciążenia sztucznej inteligencji. Wydaje zalecenia dotyczące tożsamości, bezpieczeństwa danych i ekspozycji internetowej, aby ułatwić identyfikowanie i określanie priorytetów krytycznych problemów z zabezpieczeniami.

Wykrywanie błędów konfiguracji IaC

Zabezpieczenia metodyki DevOps wykrywają błędy konfiguracji IaC, które mogą narażać aplikacje generatywnej sztucznej inteligencji na luki w zabezpieczeniach, takie jak nadmiernie odsłonięte mechanizmy kontroli dostępu lub przypadkowo publicznie ujawnione usługi. Te błędy konfiguracji mogą prowadzić do naruszeń danych, nieautoryzowanego dostępu i problemów ze zgodnością, zwłaszcza w przypadku obsługi rygorystycznych przepisów dotyczących prywatności danych.

Usługa Defender for Cloud ocenia konfigurację generowanych aplikacji sztucznej inteligencji i udostępnia zalecenia dotyczące zabezpieczeń w celu poprawy stanu zabezpieczeń sztucznej inteligencji.

Aby zapobiec późniejszym złożonym problemom, należy skorygować wykryte błędy konfiguracji na wczesnym etapie cyklu programowania.

Bieżące kontrole zabezpieczeń IaC AI obejmują:

  • Korzystanie z prywatnych punktów końcowych usługi Azure AI
  • Ograniczanie punktów końcowych usługi Azure AI
  • Używanie tożsamości zarządzanej dla kont usługi Azure AI
  • Używanie uwierzytelniania opartego na tożsamościach dla kont usługi Azure AI

Eksplorowanie zagrożeń za pomocą analizy ścieżki ataku

Analiza ścieżki ataku wykrywa i zmniejsza ryzyko związane z obciążeniami sztucznej inteligencji. Dane mogą być uwidocznione podczas uziemienia modeli sztucznej inteligencji do określonych danych i dostrajania wstępnie wytrenowanego modelu w określonym zestawie danych w celu zwiększenia wydajności powiązanego zadania.

Stale monitorując obciążenia sztucznej inteligencji, analiza ścieżki ataków może identyfikować słabe strony i potencjalne luki w zabezpieczeniach oraz śledzić zalecenia. Ponadto rozszerza się ona na przypadki, w których dane i zasoby obliczeniowe są dystrybuowane między platformami Azure, AWS i GCP.