Udostępnij przez


Dane, prywatność i zabezpieczenia dla Microsoft 365 Copilot

Microsoft 365 Copilot to zaawansowany aparat przetwarzania i orkiestrowania, który zapewnia funkcje produktywności oparte na sztucznej inteligencji poprzez koordynację następnych składników:

  • Duże modele językowe (LLM)
  • Zawartość platformy Microsoft Graph, taka jak wiadomości e-mail, czaty i dokumenty, do których masz uprawnienia dostępu.
  • Aplikacje biurowe Microsoft 365, których używasz codziennie, takie jak Word i PowerPoint.

Aby zapoznać się ze sposobem współdziałania tych trzech składników, zobacz omówienie rozwiązania Microsoft 365 Copilot. Aby uzyskać linki do innej zawartości związanej z rozwiązaniem Microsoft 365 Copilot, zobacz dokumentację rozwiązania Microsoft 365 Copilot.

Ważna

  • Microsoft 365 Copilot, w tym Microsoft 365 Copilot Search, jest zgodne z naszymi istniejącymi zobowiązaniami w zakresie ochrony prywatności, bezpieczeństwa i zgodności wobec klientów komercyjnych platformy Microsoft 365, w tym z ogólnym rozporządzeniem o ochronie danych (RODO) i granicą danych Unii Europejskiej (UE).
  • Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.
  • Microsoft 365 Copilot działa z wieloma zabezpieczeniami, które obejmują, ale nie są ograniczone do, blokowanie szkodliwych treści, wykrywanie chronionych materiałów i blokowanie szybkich zastrzyków (ataki jailbreak).

Informacje zawarte w tym artykule mają pomóc w udzieleniu odpowiedzi na następujące pytania:

Uwaga

Rozwiązanie Microsoft 365 Copilot będzie rozwijać z czasem się dzięki nowym możliwościom. Aby być na bieżąco z usługą Microsoft 365 Copilot lub zadawać pytania, odwiedź społeczność usługi Microsoft 365 Copilot w witrynie Microsoft Tech Community.

W jaki sposób usługa Microsoft 365 Copilot używa zastrzeżonych danych organizacyjnych?

Usługa Microsoft 365 Copilot dostarcza wartości, łącząc duże modele językowe z danymi organizacji. Usługa Microsoft 365 Copilot uzyskuje dostęp do zawartości i kontekstu za pośrednictwem platformy Microsoft Graph. Może generować odpowiedzi zakotwiczone w danych organizacyjnych, takich jak dokumenty użytkownika, wiadomości e-mail, kalendarz, czaty, spotkania i kontakty. Rozwiązanie Microsoft 365 Copilot łączy tę zawartość z kontekstem roboczym użytkownika, takim jak spotkanie, w którym użytkownik teraz uczestniczy, wymiana wiadomości e-mail na dany temat lub konwersacja na czacie, którą użytkownik prowadził w zeszłym tygodniu. Usługa Microsoft 365 Copilot wykorzystuje to połączenie zawartości i kontekstu, aby pomóc w dostarczaniu dokładnych, odpowiednich i kontekstowych odpowiedzi.

Ważna

Polecenia, odpowiedzi i dane dostępne za pośrednictwem platformy Microsoft Graph nie są używane do trenowania dużych modeli językowych, w tym tych używanych przez usługę Microsoft 365 Copilot.

Usługa Microsoft 365 Copilot wyświetla tylko te dane organizacyjne, do których poszczególni użytkownicy mają co najmniej uprawnienia do wyświetlania. Ważne jest, aby używać modeli uprawnień dostępnych w usługach platformy Microsoft 365, takich jak SharePoint, aby zapewnić odpowiednim użytkownikom lub grupom odpowiedni dostęp do odpowiedniej zawartości w organizacji. Obejmuje to uprawnienia udzielane użytkownikom spoza organizacji za pośrednictwem rozwiązań do współpracy między dzierżawami, takich jak kanały udostępnione w usłudze Microsoft Teams.

Podczas wprowadzania poleceń za pomocą funkcji Microsoft Copilot dla Microsoft 365 informacje zawarte w monitach, pobierane dane i generowane odpowiedzi pozostają w granicach usługi Microsoft 365, zgodnie z naszymi aktualnymi zobowiązaniami dotyczącymi ochrony prywatności, zabezpieczeń i zgodności. Rozwiązanie Microsoft 365 Copilot używa usług Azure OpenAI do przetwarzania, a nie publicznie dostępnych usług OpenAI. Usługa Azure OpenAI nie buforuje zawartości klienta, a funkcja Copilot zmodyfikowała polecenia dla funkcji Microsoft 365 Copilot. Aby uzyskać więcej informacji, zobacz sekcję Dane przechowywane na temat interakcji użytkownika z funkcją Microsoft 365 Copilot w dalszej części tego artykułu.

Uwaga

Chociaż monitorowanie nadużyć, w tym przegląd zawartości przez człowieka, jest dostępne w usłudze Azure OpenAI, funkcja Microsoft 365 Copilot z niej zrezygnowała. Aby uzyskać informacje na temat filtrowania zawartości, zobacz sekcję Jak funkcja Copilot blokuje szkodliwą zawartość? w dalszej części tego artykułu.

Uwaga

Możemy wykorzystywać opcjonalne opinie klientów do ulepszania funkcji Microsoft 365 Copilot, podobnie jak wykorzystujemy opinie klientów do ulepszania innych usług platformy Microsoft 365 i aplikacji biurowych platformy Microsoft 365. Nie używamy tych opinii do trenowania podstawowych dużych modeli językowych używanych przez usługę Microsoft 365 Copilot. Klienci mogą zarządzać opiniami za pośrednictwem kontrolek administratora. Aby uzyskać więcej informacji, zobacz Zarządzanie opiniami firmy Microsoft dla organizacji i Przekazywanie opinii na temat funkcji Microsoft Copilot za pomocą aplikacji Microsoft 365.

Dane przechowywane na temat interakcji użytkownika z funkcją Microsoft 365 Copilot

Gdy użytkownik wchodzi w interakcję z funkcją Microsoft 365 Copilot (korzystając z aplikacji takich jak Word, PowerPoint, Excel, OneNote, Loop lub Whiteboard), przechowujemy dane dotyczące tych interakcji. Przechowywane dane obejmują monit użytkownika i odpowiedź funkcji Copilot, w tym cytaty do wszelkich informacji używanych do ugruntowania odpowiedzi funkcji Copilot. Określamy monit użytkownika i odpowiedź copilot na ten monit jako "zawartość interakcji", a zapis tych interakcji jest historią działania Copilot użytkownika. Na przykład te przechowywane dane udostępniają użytkownikom historię aktywności copilot w Microsoft 365 Copilot Chat (wcześniej o nazwie Czat biznesowy) i spotkania w usłudze Microsoft Teams. Te dane są przetwarzane i przechowywane zgodnie ze zobowiązaniami umownymi wraz z inną zawartością organizacji na platformie Microsoft 365. Dane są szyfrowane, gdy są przechowywane i nie są używane do trenowania podstawowych modułów LLM, a w tym tych używanych przez funkcję Microsoft 365 Copilot.

Aby wyświetlić te przechowywane dane i zarządzać nimi, administratorzy mogą używać wyszukiwania zawartości lub usługi Microsoft Purview. Administratorzy mogą również używać usługi Microsoft Purview do ustawiania zasad przechowywania danych związanych z interakcjami czatu z funkcją Copilot. Aby uzyskać więcej informacji, zapoznaj się z następującymi artykułami:

W przypadku czatów w usłudze Microsoft Teams z funkcją Copilot administratorzy mogą również wyświetlać przechowywane dane za pomocą interfejsów API eksportu usługi Microsoft Teams.

Usuwanie historii interakcji użytkowników z funkcją Microsoft 365 Copilot

Użytkownicy mogą usunąć swoją historię aktywności Copilot, która obejmuje monity i odpowiedzi zwracane przez copilot, przechodząc do portalu Moje konto. Aby uzyskać więcej informacji, zobacz Usuwanie historii działań Microsoft 365 Copilot.

Usługa Microsoft 365 Copilot i Geograficzne ograniczenie przetwarzania danych z UE

Wywołania funkcji Copilot platformy Microsoft 365 do LLM są kierowane do najbliższych centrów danych w regionie, ale mogą również nawiązywać połączenia z innymi regionami, w których pojemność jest dostępna w okresach wysokiego wykorzystania.

W przypadku użytkowników z Unii Europejskiej oferujemy dodatkowe zabezpieczenia w celu zapewnienia zgodności z Geograficznym ograniczeniem przetwarzania danych z UE. Ruch w UE podlega Geograficznemu ograniczeniu przetwarzania danych z UE, podczas gdy ruch na całym świecie może być wysyłany do UE i innych lokalizacji geograficznych na potrzeby przetwarzania przez duże modele językowe.

Rozwiązanie Microsoft 365 Copilot i miejsce przechowywania danych

Funkcja Microsoft 365 Copilot przestrzega zobowiązań dotyczących miejsca przechowywania danych, jak określono w Warunkach dotyczących produktów firmy Microsoft i Uzupełnienia o Ochronie Danych. Funkcja Microsoft 365 Copilot została dodana jako obciążenie objęte zobowiązaniami do przechowywania danych w Warunkach dotyczących produktów firmy Microsoft 1 marca 2024 r.

Oferty Microsoft Advanced Data Residency (ADR) i Multi-Geo Capabilities obejmują zobowiązania do przechowywania danych dla klientów funkcji Microsoft 365 Copilot od 1 marca 2024 r. W przypadku klientów z UE funkcja Microsoft 365 Copilot jest usługą Geograficznego ograniczenia przetwarzania danych z UE. Zapytania klientów spoza UE mogą być przetwarzane w Stanach Zjednoczonych, UE lub innych regionach.

Rozszerzalność usługi Microsoft 365 Copilot

Podczas gdy funkcja Microsoft 365 Copilot jest już w stanie korzystać z aplikacji i danych w ramach ekosystemu platformy Microsoft 365, wiele organizacji nadal polega na różnych zewnętrznych narzędziach i usługach do zarządzania pracą i współpracy. Microsoft 365 Copilot środowiska mogą odwoływać się do narzędzi i usług innych firm podczas odpowiadania na żądanie użytkownika przy użyciu łączników lub agentów programu Microsoft Graph. Dane z łączników usługi Graph mogą być zwracane w odpowiedziach usługi Microsoft 365 Copilot, jeśli użytkownik ma uprawnienia dostępu do tych informacji.

Po włączeniu agentów Microsoft 365 Copilot określa, czy musi użyć określonego agenta, aby pomóc w udzieleniu odpowiedniej odpowiedzi użytkownikowi. Jeśli agent jest potrzebny, Microsoft 365 Copilot generuje zapytanie wyszukiwania do wysłania do agenta w imieniu użytkownika. Zapytanie jest oparte na wierszu polecenia użytkownika, historii aktywności copilot i danych, do które użytkownik ma dostęp na platformie Microsoft 365.

W sekcji Zintegrowane aplikacjew Centrum administracyjne platformy Microsoft 365 administratorzy mogą wyświetlać uprawnienia i dostęp do danych wymagane przez agenta, a także warunki użytkowania i zasady zachowania poufności informacji agenta. Administratorzy mają pełną kontrolę nad wyborem agentów dozwolonych w organizacji. Użytkownik może uzyskiwać dostęp tylko do agentów, na które zezwala administrator, oraz do instalowania lub przypisywania użytkownika. Microsoft 365 Copilot używa tylko agentów włączonych przez użytkownika.

Aby uzyskać więcej informacji, zapoznaj się z następującymi artykułami:

W jaki sposób rozwiązanie Microsoft 365 Copilot chroni dane organizacyjne?

Model uprawnień w dzierżawie platformy Microsoft 365 może pomóc w zapewnieniu przypadkowego wycieku danych między użytkownikami, grupami i dzierżawami. Platforma Microsoft 365 Copilot przedstawia tylko dane, do których każda osoba może uzyskać dostęp przy użyciu tych samych podstawowych mechanizmów kontroli dostępu do danych używanych w innych usługach platformy Microsoft 365. Indeks semantyczny uwzględnia granicę dostępu opartą na tożsamości użytkownika, dzięki czemu proces uziemiania uzyskuje dostęp tylko do zawartości, do której bieżący użytkownik ma uprawnienia dostępu. Aby uzyskać więcej informacji, zobacz dokumentację zasad ochrony prywatności i usługi firmy Microsoft.

Jeśli masz dane zaszyfrowane przez usługę Microsoft Purview Information Protection, rozwiązanie Microsoft 365 Copilot przestrzega praw użycia przyznanych użytkownikowi. To szyfrowanie może być stosowane przez etykiety poufności lub przez ograniczone uprawnienia w aplikacjach na platformie Microsoft 365 za pomocą usługi Zarządzanie prawami do informacji (IRM). Aby uzyskać więcej informacji o używaniu usługi Microsoft Purview z funkcją Microsoft 365 Copilot, zobacz artykuł Zabezpieczenia danych i ochrona zgodności usługi Microsoft Purview dla generatywnych aplikacji sztucznej inteligencji.

Wdrożyliśmy już wiele form ochrony, aby pomóc klientom w zabezpieczeniu usług i aplikacji Microsoft 365 lub uniemożliwić uzyskanie nieautoryzowanego dostępu do innych dzierżawców lub samego systemu Microsoft 365. Oto kilka przykładów tych form ochrony:

  • Logiczna izolacja zawartości klienta w ramach każdej dzierżawy usług platformy Microsoft 365 jest osiągana dzięki autoryzacji Microsoft Entra i kontroli dostępu opartej na rolach. Aby uzyskać więcej informacji, zobacz kontrolki izolacji platformy Microsoft 365.

  • Firma Microsoft korzysta z rygorystycznych zabezpieczeń fizycznych, osłon w tle i wielowarstwowej strategii szyfrowania, aby chronić poufność i integralność zawartości klientów.

  • Platforma Microsoft 365 korzysta z technologii po stronie usługi, które szyfrują zawartość przechowywaną i przesyłaną przez klientów, w tym funkcję BitLocker, szyfrowanie poszczególnych plików, protokół Transport Layer Security (TLS) i zabezpieczenia protokołu internetowego (IPsec). Aby uzyskać szczegółowe informacje na temat szyfrowania na platformie Microsoft 365, zobacz Szyfrowanie w chmurze firmy Microsoft.

  • Kontrola nad danymi użytkownika jest wzmacniana przez zobowiązanie firmy Microsoft do zachowania zgodności z szeroko obowiązującymi przepisami dotyczącymi ochrony prywatności, takimi jak RODO, i standardami prywatności, takimi jak ISO/IEC 27018, pierwszy na świecie międzynarodowy kodeks ochrony prywatności w chmurze.

  • W przypadku zawartości dostępnej za pośrednictwem agentów Microsoft 365 Copilot szyfrowanie może wykluczać dostęp programowy, co ogranicza dostęp agenta do zawartości. Aby uzyskać więcej informacji, zobacz Konfigurowanie praw użytkowania dla usługi Azure Information Protection.

Spełnianie wymagań dotyczących zgodności z przepisami

Firma Microsoft w dalszym ciągu dostosowuje się i reaguje, aby spełniać wymagania prawne dotyczące sztucznej inteligencji w miarę ich rozwoju, dzięki czemu zdobywamy i utrzymujemy zaufanie klientów, partnerów i organów regulacyjnych.

Microsoft 365 Copilot oferuje szeroką ofertę zgodności i certyfikaty, w tym RODO, ISO 27001, HIPAA i standard ISO 42001 dla systemów zarządzania sztuczną inteligencją. Pomagają one naszym klientom w drodze do zapewniania zgodności, uzupełnionymi funkcjami, takimi jak gotowość umowna, wbudowane zarządzanie ryzykiem technologii informatycznych i komunikacyjnych oraz narzędzia odporności operacyjnej.

Firma Microsoft zobowiązuje się do przestrzegania wszystkich przepisów prawnych i przepisów mających zastosowanie do firmy Microsoft, w tym ustawy o sztucznej inteligencji w UE, aby umożliwić naszym rozwiązaniu sztucznej inteligencji spełnianie zmieniających się standardów w zakresie wiarygodnej i odpowiedzialnej sztucznej inteligencji. Microsoft 365 Copilot opiera się na istniejących zobowiązaniach firmy Microsoft w zakresie bezpieczeństwa i prywatności danych. Nie ma żadnych zmian w tych zobowiązaniach. Rozwiązanie Copilot jest zintegrowane z platformą Microsoft 365 i jest zgodne z istniejącymi zobowiązaniami dotyczącymi prywatności, zabezpieczeń i zgodności wobec klientów platformy Microsoft 365.

Ponadto priorytetem jest otwarty dialog z naszymi partnerami i organami regulacyjnymi. Zapewniamy klientom bezpośredni dostęp do specjalistów ds. zgodności firmy Microsoft, proaktywne wskazówki i wyselekcjonowane rozwiązania ułatwiające nawigację po zgodności z przepisami, takie jak przewodnik Szybki start Microsoft 365 Copilot & Copilot Chat oceny ryzyka. Nasze podejście w środowisku opartym na sztucznej inteligencji ma na celu umożliwienie organizacjom pewnego wprowadzania innowacji dzięki rozwiązaniu zbudowanym z myślą o przejrzystości, prywatności i bezpieczeństwie.

Informacje dodatkowe

Funkcja Microsoft 365 Copilot i mechanizmy kontroli prywatności dla środowisk połączonych

Niektóre mechanizmy kontroli prywatności dla środowisk połączonych w aplikacjach Microsoft 365 mogą wpływać na dostępność funkcji Microsoft 365 Copilot. To obejmuje mechanizmy kontroli prywatności dla środowisk połączonych, które analizują zawartość użytkownika oraz mechanizmy kontroli prywatności dla opcjonalnych środowisk połączonych. Aby uzyskać informacje na temat mechanizmów kontroli prywatności, zobacz sekcję Omówienie mechanizmów kontroli prywatności dla aplikacji Microsoft 365 dla przedsiębiorstw.

Mechanizm kontroli prywatności dla środowisk połączonych analizujących zawartość

Jeśli wyłączysz połączone środowiska analizujące zawartość na urządzeniach w organizacji, funkcje Microsoft 365 Copilot nie będą dostępne dla użytkowników w następujących aplikacjach:

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • Word

Dotyczy to sytuacji, gdy używasz najnowszej wersji tych aplikacji na urządzeniach z systemem Windows, Mac, iOS lub Android.

Istnieje również mechanizm kontroli prywatności, który wyłącza wszystkie środowiska połączone, w tym środowiska połączone, które analizują Twoją zawartość. Jeśli używasz tej kontroli prywatności, funkcje Microsoft 365 Copilot nie będą dostępne w aplikacjach i na urządzeniach opisanych powyżej.

Mechanizm kontroli prywatności dla opcjonalnych środowisk połączonych

Jeśli wyłączysz opcjonalne środowiska połączone w organizacji, funkcje Microsoft 365 Copilot, które są opcjonalnymi środowiskami połączonymi, nie będą dostępne dla użytkowników. Na przykład wyłączenie opcjonalnych połączonych środowisk może mieć wpływ na dostępność wyszukiwania w Internecie.

Istnieje również mechanizm kontroli prywatności, który wyłącza wszystkie środowiska połączone, w tym opcjonalne środowiska połączone. Jeśli użyjesz tego mechanizmu kontroli prywatności, funkcje Microsoft 365 Copilot, które są opcjonalnymi środowiskami połączonymi, nie będą dostępne.

Informacje o zawartości tworzonej przez usługę Microsoft 365 Copilot

Odpowiedzi generowane przez generującą sztuczną inteligencję mogą nie być w 100% faktyczne. Mimo że stale ulepszamy odpowiedzi, użytkownicy nadal powinni kierować się własną oceną, przeglądając dane wyjściowe przed wysłaniem ich do innych osób. Możliwości usługi Microsoft 365 Copilot pozwalają na tworzenie przydatnych wersji roboczych i podsumowań, które pomogą osiągnąć Ci więcej, dając jednocześnie możliwość na przejrzenie wygenerowanej przez AI zawartości, zamiast pełnego zautomatyzowania tych zadań.

Stale ulepszamy algorytmy w celu proaktywnego rozwiązywania problemów, takich jak dezinformacja i kłamstwo, blokowanie zawartości, bezpieczeństwo danych i zapobieganie promocji szkodliwej lub dyskryminacyjnej zawartości zgodnie z naszymi zasadami odpowiedzialnej sztucznej inteligencji.

Firma Microsoft nie rości sobie praw własności do wyników usługi. Mimo to nie ustalamy, czy wyniki klienta są chronione prawami autorskimi lub czy można je wymusić względem innych użytkowników. Wynika to z faktu, że generatywne systemy sztucznej inteligencji mogą generować podobne odpowiedzi na podobne polecenia lub zapytania od wielu klientów. W związku z tym wielu klientów może mieć lub rościć sobie prawa do zawartości, która jest taka sama lub w znacznym stopniu podobna.

Jeśli strona trzecia pozwie klienta komercyjnego o naruszenie praw autorskich za korzystanie z usług Copilot firmy Microsoft lub wygenerowane przez nie dane wyjściowe, będziemy bronić klienta i zapłacimy kwotę wszelkich niekorzystnych wyroków lub ugód wynikających z pozwu sądowego, o ile klient korzystał z zabezpieczeń i filtrów zawartości wbudowanych w nasze produkty. Aby uzyskać więcej informacji, zobacz artykuł Firma Microsoft ogłasza nowe zobowiązanie dotyczące praw autorskich w usłudze Copilot dla klientów.

Jak funkcja Copilot blokuje szkodliwą zawartość?

Aby zablokować szkodliwą zawartość, Microsoft 365 Copilot korzysta z usługi Azure OpenAI Service, która obejmuje system filtrowania zawartości, który działa wraz z podstawowymi modelami. Modele filtrowania zawartości dla kategorii Nienawiść i sprawiedliwość, Seksualne, Przemoc i Samookaleczenie zostały specjalnie wytrenowane i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno polecenia wejściowego, jak i odpowiedzi za pomocą modeli klasyfikacji, które zostały zaprojektowane w celu identyfikowania i blokowania danych wyjściowych szkodliwej zawartości.

Szkody związane z nienawiścią i sprawiedliwością odnoszą się do dowolnej zawartości, która używa języka pejoratywnego lub dyskryminującego opartego na atrybutach takich jak rasa, pochodzenie etniczne, narodowość, tożsamość i ekspresja płciowa, orientacja seksualna, religia, status imigracyjny, status zdolności, wygląd osobisty i rozmiar ciała. Sprawiedliwość dotyczy upewnienia się, że systemy sztucznej inteligencji traktują wszystkie grupy ludzi sprawiedliwie, nie przyczyniając się do istniejących nierówności społecznych. Zawartość o charakterze seksualnym obejmuje dyskusje na temat ludzkich narządów rozrodczych, romantycznych związków, aktów przedstawianych w kategoriach erotycznych lub uczuciowych, ciąży, fizycznych aktów seksualnych, w tym tych przedstawianych jako napaść lub wymuszony akt przemocy seksualnej, prostytucji, pornografii i nadużyć. Przemoc opisuje język związany z działaniami fizycznymi, które mają na celu zranienie lub zabicie, w tym działania, broń i powiązane podmioty. Język samookaleczenia odnosi się do celowych działań, które mają na celu zranienie lub zabicie siebie.

Oprócz filtrowania zawartości oferowanego przez usługę Azure OpenAI, Microsoft 365 Copilot stosuje również filtry, aby zapobiec wystąpieniu szkód w miejscu pracy. Szkody w miejscu pracy odnoszą się do kategorii szkód, które mogą wynikać z wygenerowanej sztucznej inteligencji lub modeli tworzących wnioski, osądy lub oceny dotyczące pracownika na podstawie komunikacji w miejscu pracy. Obecnie oznacza to wnioskowanie, osądy lub oceny dotyczące wydajności, postawy, stanu wewnętrznego lub emocjonalnego pracownika lub cech osobistych pracownika. Ograniczamy użycie generowania sztucznej inteligencji lub modeli do tych celów.

Czy funkcja Copilot zapewnia wykrywanie materiałów chronionych?

Tak, funkcja Microsoft 365 Copilot zapewnia wykrywanie chronionych materiałów, w tym tekstu objętego prawami autorskimi i kodem podlegającym ograniczeniom licencjonowania. Nie wszystkie te ograniczenia ryzyka są istotne dla wszystkich scenariuszy funkcji Microsoft 365 Copilot.

Czy funkcja Copilot blokuje wstrzykiwanie poleceń (ataki jailbreak)?

Ataki jailbreak są monitami zaprojektowanymi w celu obejścia zabezpieczeń Copilota lub wywołania niezgodnego zachowania. Microsoft 365 Copilot pomaga złagodzić te ataki przy użyciu zastrzeżonych klasyfikatorów jailbreak i cross-prompt injection attack (XPIA). Klasyfikatory analizują dane wejściowe usługi Copilot i pomagają blokować monity wysokiego ryzyka przed wykonaniem modelu.

Co się stanie, gdy wystąpią zmiany modelu podstawowego?

Modele sztucznej inteligencji, które zasilają Microsoft 365 Copilot, są regularnie aktualizowane i ulepszane. Aktualizacje modelu zapewniają ulepszenia wydajności, bardziej zaawansowane rozumowanie i rozszerzone możliwości, ale nie zmieniają ustawień zabezpieczeń, prywatności ani zgodności. Aby uzyskać więcej informacji, zobacz Blog platformy Microsoft 365: Omówienie zmian modelu podstawowego w Microsoft 365 Copilot.

Zaangażowanie w odpowiedzialną sztuczną inteligencję

Ponieważ sztuczna inteligencja przekształca nasze życie, musimy wspólnie zdefiniować nowe reguły, normy i praktyki dotyczące użycia i wpływu tej technologii. Od 2017 r. firma Microsoft pracuje nad odpowiedzialną sztuczną inteligencją, gdy zdefiniowaliśmy nasze zasady i podejście, zapewniając, że ta technologia jest używana w sposób oparty na zasadach etycznych, które stawiają ludzi na pierwszym miejscu.

W firmie Microsoft kierujemy się zasadami dotyczącymi sztucznej inteligencji, standardem odpowiedzialnej sztucznej inteligencji i dziesiątkami lat badań nad sztuczną inteligencją, uziemianiem i ochroną prywatności uczenia maszynowego. Multidyscyplinarny zespół badaczy, inżynierów i ekspertów ds. zasad sprawdza nasze systemy sztucznej inteligencji pod kątem potencjalnych szkód i środków zaradczych — udoskonalając dane szkoleniowe, filtrując w celu ograniczenia szkodliwej zawartości, blokując zapytania i wyniki dotyczące tematów poufnych oraz stosując technologie firmy Microsoft, takie jak InterpretML i Fairlearn, aby pomóc wykrywać i poprawiać odchylenia danych. Jasno określamy, w jaki sposób system podejmuje decyzje, odnotowując ograniczenia, łącząc się ze źródłami i monitując użytkowników o przeglądanie, sprawdzanie faktów i dostosowywanie zawartości na podstawie wiedzy w danej dziedzinie. Aby uzyskać więcej informacji, zobacz artykuł Zarządzanie sztuczną inteligencją: strategia na przyszłość.

Naszym celem jest pomoc naszym klientom w odpowiedzialnym korzystaniu z naszych produktów sztucznej inteligencji, udostępnianiu naszych informacji i tworzeniu relacji partnerskich opartych na zaufaniu. W przypadku tych nowych usług chcemy udostępnić naszym klientom informacje o zamierzonych zastosowaniach, możliwościach i ograniczeniach naszej usługi platformy sztucznej inteligencji, aby mieli wiedzę niezbędną do dokonywania wyborów dotyczących odpowiedzialnego wdrażania. Udostępniamy również zasoby i szablony deweloperom w organizacjach oraz niezależnym dostawcom oprogramowania (ISV), aby ułatwić im tworzenie efektywnych, bezpiecznych i przejrzystych rozwiązań AI.