주요 콘텐츠로 건너뛰기

이 브라우저는 더 이상 지원되지 않습니다.

최신 기능, 보안 업데이트, 기술 지원을 이용하려면 Microsoft Edge로 업그레이드하세요.

Microsoft Edge 다운로드 Internet Explorer 및 Microsoft Edge에 대한 추가 정보
영어로 읽기

다음을 통해 공유

Facebook x.com LinkedIn 메일

Microsoft AI Red Team

업계 최고의 Microsoft AI Red Team의 지침과 모범 사례를 통해 조직의 AI를 보호하는 방법을 알아봅니다.

AI 레드 팀 정보

개요

  • AI Red 팀은 무엇이며 Microsoft는 어떻게 더 안전한 AI를 구축하고 있나요?

방법 가이드

  • LLM용 AI Red Teams 빌드 가이드

참조

  • 책임 있는 AI 도구 및 사례
  • 책임 있는 AI 표준 및 영향 평가

준비

개요

  • Microsoft의 Open Automation Framework to Red Team Generative AI Systems(PyRIT)

방법 가이드

  • PyRIT 방법 가이드

참조

  • ML 엔지니어를 위한 AI 위험 평가
  • AI 공동 책임 모델

위협 이해

방법 가이드

  • ML 시스템에 대한 개발자 위협 모델링 지침

개념

  • 기계 학습 실패에 대한 분류

참조

  • ML 시스템에 대한 공격을 심사하는 버그 표시줄

보안 솔루션 탐색

개념

  • Phi-3 시리즈 언어 모델을 안전하게 정렬하는 방법론

참조

  • Azure Machine Learning의 Enterprise 보안 및 거버넌스
  • Azure AI 콘텐츠 안전이란?
  • Azure AI를 사용한 피해 완화 전략
  • 배포된 프롬프트 흐름 애플리케이션의 품질 및 안전성 모니터링

교훈

학습

  • AI 보안 교육

개요

  • 레드 팀 100개 생성 AI 제품의 교훈
ko-kr
사용자의 개인 정보 보호 선택
  • AI 고지 사항
  • 이전 버전
  • 블로그
  • 참가
  • 개인 정보 보호
  • 사용 조건
  • 상표
  • © Microsoft 2025