다음을 통해 공유


인공 지능 개요

Microsoft는 고객이 클라우드 서비스를 사용하여 AI(인공 지능) 솔루션을 자신 있게 채택하고 빌드할 수 있도록 최선을 다하고 있습니다. AI가 빠르게 발전하고 크게 규제되지 않는 환경에서 계속 발전함에 따라 Microsoft는 AI 기술이 안전하고 안전하며 신뢰할 수 있도록 사려 깊고 사전 예방적인 접근 방식을 취합니다. AI에 대한 Microsoft의 접근 방식은 포괄적인 제품, 강력한 거버넌스 프레임워크 및 잘 정의된 RAI(책임 있는 AI) 원칙을 중심으로 하며, 모두 공유 책임 모델에서 지원됩니다. 이 기반을 통해 Microsoft는 고객이 확립된 보안, 개인 정보 보호 및 윤리적 표준에 부합하는 AI 시스템을 설계하고 배포하여 신뢰를 유지하면서 혁신을 촉진할 수 있도록 합니다.

Microsoft에서 AI를 활용하는 제품 제품은 무엇입니까?

Microsoft에는 코필로트와 같은 즉시 사용할 수 있는 생성 AI 시스템과 고유한 생성 AI 시스템을 빌드할 수 있는 AI 개발 플랫폼이라는 두 그룹으로 광범위하게 분류할 수 있는 다양한 AI 서비스 제품이 있습니다.

Azure AI는 엔터프라이즈급 개인 정보 보호, 보안 및 규정 준수를 통해 책임 있는 혁신을 위한 토대를 제공하는 공통 개발 플랫폼 역할을 합니다.

Azure AI & Copilot

Microsoft의 AI 제품에 대한 자세한 내용은 다음 제품 설명서를 참조하세요.

공유 책임 모델은 AI에 어떻게 적용됩니까?

다른 클라우드 제품과 마찬가지로 AI 위험 완화는 Microsoft와 고객 간의 공동 책임입니다. organization 내에서 구현하는 AI 기능에 따라 책임은 Microsoft와 사용자 간에 전환됩니다. 이 모델은 Microsoft 365 Copilot 같은 완전 관리형 SaaS 솔루션이든, Azure OpenAI를 사용하는 사용자 지정 모델 배포이든 관계없이 AI 배포 유형에 따라 달라집니다.

다음 다이어그램에서는 배포 유형에 따라 Microsoft와 고객 간의 책임 영역을 보여 줍니다.

AI 공동 책임

자세한 내용은 AI(인공 지능) 공유 책임 모델을 참조하세요.

Microsoft 책임

Microsoft는 IaaS, PaaS 및 SaaS 모델을 비롯한 클라우드 플랫폼에서 안전하고 규정을 준수하며 신뢰할 수 있는 AI 인프라 및 서비스를 제공할 책임이 있습니다. Microsoft는 책임 있는 AI Standard 따라 책임 있는 AI 원칙을 개발 수명 주기에 포함합니다. 이 표준은 설계에 따라 공정성, 안정성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임을 보장합니다.

PaaS 및 SaaS 시나리오에서 Microsoft는 AI 컴퓨팅 인프라, 모델 학습 환경 및 애플리케이션 호스팅 플랫폼을 관리합니다. Microsoft는 SDL(보안 개발 수명 주기)에 따라 일관된 보안 사례를 적용합니다. 이러한 사례에는 위협 모델링, 보안 코드 분석 및 침투 테스트가 포함됩니다. Microsoft는 또한 RAG(검색 보강 생성), 메타프롬프 엔지니어링 및 남용 감지와 같은 기술을 사용하여 환각을 줄이고 사실 접지를 개선하는 모델 안전 시스템을 구현합니다.

개인 정보 보호 및 데이터 보호는 기본입니다. Microsoft는 명시적 동의 없이 고객 데이터를 사용하여 기본 모델을 학습하지 않습니다. Microsoft는 데이터 보호 부록 및 제품 약관에 따라 모든 데이터 상호 작용을 제어합니다. 또한 Microsoft는 고객이 AI 서비스의 동작 및 제한 사항을 이해할 수 있도록 포괄적인 설명서, 책임 있는 사용 고지 사항 및 기술 리소스를 제공하여 투명성과 설명성을 보장합니다.

Microsoft Copilot 같은 SaaS 제품의 경우 Microsoft는 전체 애플리케이션 스택에 대한 운영 책임을 맡습니다. 이 책임에는 모델 수명 주기 관리, 애플리케이션 인프라, 플러그 인 거버넌스 및 안전 시스템이 포함됩니다. Azure AI와 같은 PaaS 모델의 경우 Microsoft는 모델 디자인, 튜닝 및 통합에 대한 책임을 고객과 공유합니다. Microsoft는 기본 플랫폼 서비스를 계속 운영하고 보호합니다. IaaS, PaaS 및 SaaS에 대한 자세한 내용은 PaaS(Platform as a Service) 옵션Saas 및 다중 테넌트 솔루션 아키텍처 사용을 참조하세요.

고객 책임

고객은 organization 내에서 AI를 사용하는 방법을 관리할 책임이 있습니다. 이러한 책임에는 정책 정의, 환경 구성 및 제어를 통해 AI 시스템이 비즈니스 목표 및 규정 요구 사항에 부합하도록 하는 것이 포함됩니다.

모든 배포 모델에서 고객은 사용 정책, 검토 프로세스 및 책임 있는 AI 교육과 같은 AI 거버넌스 및 감독 메커니즘을 설정해야 합니다. 또한 고객은 ID, 디바이스 및 액세스 관리를 담당합니다. 적절한 역할 기반 액세스 제어 및 인증 방법이 마련되어 있는지 확인합니다. 데이터 자산의 수명 주기를 분류, 보호 및 관리하려면 데이터 거버넌스 프레임워크를 구현해야 합니다.

IaaS 및 PaaS 시나리오의 경우 고객은 AI 모델 및 애플리케이션의 디자인 및 구현을 소유합니다. 이 소유권에는 모델 선택, 프롬프트 엔지니어링, 미세 조정 및 비즈니스 시스템과의 통합이 포함됩니다. 고객은 해당하는 경우 AI 플러그 인 구성, 애플리케이션 안전 시스템 및 인프라 관리에 대해서도 책임을 집니다.

SaaS 기반 AI 솔루션을 사용하는 경우에도 고객은 사용자 교육 및 교육, 사용 정책 구성, 출력 검토 및 적절하게 사용 보장에 대한 책임을 유지합니다. 고객은 GDPR, HIPAA 또는 EU AI Act와 같은 해당 규정 준수 요구 사항에 AI 사용량을 매핑해야 합니다. 조직 가치와 위험 허용 오차를 반영하는 내부 정책을 설정해야 합니다.

고객은 오용을 완화하고, AI 생성 출력의 유효성을 검사하고, 팀 전체에서 책임 있는 AI 채택 문화를 조성하기 위한 사전 조치를 취해야 합니다.

Microsoft가 공유 책임 모델의 일부를 수행하는 고객을 지원하는 방법에 대한 자세한 내용은 AI를 책임감 있게 빌드하는 고객을 지원하는 방법(pg. 38)을 참조하세요.

Microsoft는 AI 시스템의 개발 및 관리를 어떻게 관리하나요?

어느 팀이나 organization 책임 있는 AI 관행의 채택을 주도할 책임이 없습니다. 우리는 페더레이션된 상향식 접근 방식을 강력한 하향식 지원 및 회사 리더십의 감독과 결합하여 정책, 거버넌스 및 프로세스에 연료를 공급합니다. 연구, 정책 및 엔지니어링 전문가는 전문 지식을 결합하고 최첨단 사례를 공동 작업하여 고객과 파트너를 동시에 지원하면서 우리 자신의 약속을 충족할 수 있도록 합니다.

RAI 거버넌스 구조

책임 있는 AI Standard

  • 책임 있는 AI 정책: Microsoft의 책임 있는 AI 정책은 공정성, 안정성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임의 6가지 핵심 원칙을 기반으로 합니다. 이러한 원칙은 AI 시스템의 설계, 개발 및 배포를 안내하여 윤리적, 신뢰할 수 있고 인간 중심적인 시스템을 보장합니다.
  • 책임 있는 AI Standard: 책임 있는 AI를 실천하는 것은 Microsoft의 책임 있는 AI Standard 시작합니다. 이 Standard 책임 있는 AI를 엔지니어링 팀, AI 개발 수명 주기 및 도구에 통합하는 방법을 자세히 설명합니다. 목표는 위험을 완화하고, 인권을 유지하며, AI 기술이 사회에 광범위하게 혜택을 주도록 하는 것입니다. Microsoft의 책임 있는 AI에 대한 자세한 내용은 여기를 참조 하세요.

역할 및 책임

  • Microsoft 이사회: 책임 있는 AI 관리는 CEO Satya Nadella에서 시작하여 선임 리더십 팀과 모든 Microsoft에 걸쳐 연계됩니다. 이사회의 환경, 사회 및 공공 정책 위원회는 책임 있는 AI 정책 및 프로그램에 대한 감독 및 지침을 제공합니다.
  • 책임 있는 AI 위원회: 부의장이자 회장인 브래드 스미스(Brad Smith)와 최고 기술 책임자 케빈 스콧(Kevin Scott)이 공동 이끄는 책임 있는 AI 위원회는 연구, 정책 및 엔지니어링 분야의 비즈니스 리더와 대표를 위한 포럼을 제공하여 AI를 둘러싼 가장 큰 과제를 정기적으로 해결하고 책임 있는 AI 정책 및 프로세스의 진전을 추진합니다.
  • ORA(책임 있는 AI) 사무실: ORA는 5가지 주요 기능을 통해 수행하는 책임 있는 AI 원칙을 실행해야 합니다. ORA는 회사 차원의 내부 정책을 설정하고, 거버넌스 구조를 정의하며, AI 사례를 채택하는 리소스를 제공하고, 중요한 사용 사례를 검토하고, AI에 대한 공공 정책을 형성하는 데 도움이 됩니다.
  • 연구: Aether(엔지니어링 및 연구) 위원회, Microsoft Research 및 엔지니어링 팀의 AI 윤리 및 효과 연구원은 사고 리더십을 통해 책임 있는 AI 프로그램을 문제의 선두에 유지합니다.
  • 정책: ORA는 회사 전체의 이해 관계자 및 정책 팀과 협력하여 AI 애플리케이션을 빌드할 때 AI 원칙을 유지하기 위한 정책 및 사례를 개발합니다.
  • 엔지니어링: 엔지니어링 팀은 AI 플랫폼, 애플리케이션 및 도구를 만듭니다. 정책 및 관행이 기술적으로 실현 가능하고, 새로운 관행과 새로운 기술을 혁신하고, 회사 전체에서 책임 있는 AI 사례를 확장할 수 있도록 피드백을 제공합니다.

Microsoft RAI 프로그램의 기초 역할을 하는 원칙은 무엇인가요?

책임 있는 AI를 실천하는 것은 책임 있는 AI Standard 시작됩니다. 이 Standard 책임 있는 AI를 엔지니어링 팀, AI 개발 수명 주기 및 도구에 통합하는 방법을 자세히 설명합니다. RAI Standard 6개 도메인을 포괄하며 AI 위험 및 관련 피해를 줄이기 위한 14가지 목표를 설정합니다. RAI Standard 각 목표는 팀이 도메인에 따라 AI 시스템을 빌드하기 위한 구체적인 단계인 요구 사항으로 구성됩니다.

  • 책임: 우리는 우리의 기술이 어떻게 작동하고 세계에 영향을 미치는지에 대해 책임을 지고 있습니다.
  • 투명성: AI 시스템을 빌드하는 방법과 이유, 해당 제한 사항 및 시스템이 의사 결정을 내리는 방법에 대해 열려 있습니다.
  • 공정성: AI 시스템이 모든 사람을 공정하게 대우하고 유사하게 위치한 사용자 그룹에 다른 방식으로 영향을 미치지 않도록 합니다.
  • 안정성 및 안전: AI 시스템이 원래 설계된 대로 작동하고, 예기치 않은 조건에 안전하게 대응하며, 유해한 조작에 저항할 수 있도록 합니다.
  • 개인 정보 보호 및 보안: 데이터와 모델이 보호되고 개인의 기본 개인 정보 보호 권리가 유지되도록 합니다.
  • 포용성: 우리는 의도적으로 커뮤니티의 전체 스펙트럼을 포함해야 합니다.

RAI 원칙

책임 있는 AI 원칙에 대한 자세한 내용은 책임 있는 AI를 참조하세요.

Microsoft는 ORA에서 정의한 정책을 어떻게 구현하나요?

RAI Standard(책임 있는 AI Standard)은 AI 시스템에 대한 제품 개발 및 위험 관리 기준을 설정하려는 Microsoft의 장기적인 노력을 반영합니다. Microsoft에서 개발한 모든 AI 시스템에 대한 목표, 요구 사항 및 사례를 정의하여 RAI 원칙을 실행합니다.

  • 목표: AI 원칙을 유지하는 것이 무엇을 의미하는지 정의합니다.
  • 요구 사항: AI 원칙을 유지해야 하는 방법 정의
  • 사례: 요구 사항을 충족하는 데 도움이 되는 보조

RAI Standard 주요 원동력은 개발 팀이 각 목표 요구 사항에 대한 결과를 문서화하는 영향 평가입니다. 개인 정보 보호 & 보안 및 포용성 목표를 위해 RAI Standard Microsoft에 이미 존재하는 기존 개인 정보 보호, 보안 및 접근성 프로그램을 준수하고 제공하는 AI 관련 지침을 준수해야 한다는 요구 사항을 명시하고 있습니다.

전체 RAI Standard Microsoft 책임 AI Standard 일반 요구 사항 설명서에서 찾을 수 있습니다.

제품 약관에 적용되는 내용은 무엇인가요?

Microsoft 제품 약관은 고객이 Microsoft 365 Copilot 같은 AI 지원 기능을 포함하여 Microsoft Online Services를 사용할 수 있는 권한, 책임 및 조건을 정의합니다. 이러한 용어는 Microsoft 규정 준수 및 계약 약정의 기본 부분을 형성합니다. Microsoft 라이선스 설명서에 설명된 대로 모든 Core Online Services에 적용됩니다.

특히 제품 약관에는 다음 영역이 포함됩니다.

  • 고객 데이터 사용량: Microsoft는 데이터 프로세서 역할을 하며 제품 약관 및 Microsoft 제품 및 서비스 DPA(데이터 보호 부록)에 명시된 조건에 따라 고객 데이터를 엄격하게 처리합니다. Microsoft는 고객 데이터를 처리하여 서비스를 제공하고 명시적 권한 없이 기본 모델을 학습시키는 데 사용하지 않습니다.
  • 허용 가능한 사용 요구 사항: 고객은 제품 약관에 통합된 Microsoft의 허용 가능한 사용 정책을 준수해야 합니다. 이 정책에는 AI 기능의 오용에 대한 제한이 포함됩니다. 예를 들어 고객은 의도적으로 안전 필터를 우회하거나 Microsoft 365 Copilot 메타 프롬프롬프를 조작하려고 시도할 수 없습니다.
  • 공동 책임 모델: 제품 약관은 Microsoft와 고객 간의 운영 및 규정 준수 책임 부서를 명확히 합니다. Copilot와 같은 SaaS(Software as a Service) 솔루션의 경우 Microsoft는 인프라, 모델 운영 및 임베디드 안전 시스템을 관리합니다. 고객은 적절한 사용, 액세스 제어 및 사용자 교육을 담당합니다.
  • 서비스 적용 범위: 제품 약관에는 핵심 온라인 서비스라고 하는 모든 적용 대상 서비스가 나열되며 각 서비스가 Microsoft의 개인 정보, 보안 및 규정 준수 약정에 부합하는 방식을 정의합니다.
  • 투명성 및 신뢰: 제품 약관은 Microsoft 보안 센터, 서비스 신뢰 포털 및 규정 준수 관리자와 같은 리소스와 함께 작동하여 Microsoft가 AI로 강화된 서비스를 포함하여 서비스를 설계, 보안 및 운영하는 방법에 대한 가시성을 제공합니다.

Microsoft는 이러한 용어를 공개적으로 사용할 수 있도록 하고, RAIS(책임 있는 AI Standard)를 포함하여 진화하는 기술, 규정 요구 사항 및 내부 정책을 반영하도록 정기적으로 업데이트합니다. 고객은 서비스 사용 권한 및 의무에 대한 정보를 유지하기 위해 주기적으로 제품 약관을 검토해야 합니다.

Microsoft 제품 약관

Microsoft AI 시스템의 수명 주기는 어떻게 됩니까?

Microsoft 엔지니어링 팀은 AI 시스템이 안전하고 안정적이며 책임 있는 AI 표준에 부합하도록 다양한 기술 안전 장치를 구현합니다. 이 접근 방식에는 공정성, 안전성, 안정성, 개인 정보 보호, 포용성 및 투명성과 관련된 위험을 사전에 식별하고 완화하는 것이 포함됩니다. AI 개발 주기는 생성 AI 애플리케이션이 책임감 있게 빌드되고 배포되도록 설계된 반복적이고 위험 중심적인 프레임워크를 따릅니다. 이 수명 주기는 NIST AI 위험 관리 프레임워크에 부합하는 네 가지 핵심 함수를 중심으로 빌드됩니다. 이러한 단계는 함께 책임 있는 혁신 및 위험 완화를 통해 팀을 안내합니다. 개발 주기 및 책임 있는 AI에 대한 자세한 내용은 책임 있는 AI를 참조하세요.

  • 거버넌스: 거버넌스 단계는 AI 시스템의 개발 및 배포를 안내하는 역할, 책임 및 정책을 수립하여 책임 있는 AI의 토대를 마련합니다. Microsoft에서 이 단계는 책임 있는 AI Standard 시작하여 AI 개발이 공정성, 책임 및 투명성을 비롯한 회사의 핵심 원칙에 부합하도록 합니다. 거버넌스에는 진화하는 규정 및 관련자 입력을 통해 정보를 제공하는 정책 개발 및 업데이트, 배포 전 검토 수행, 사용자가 AI 기능 및 제한 사항을 이해하는 데 도움이 되는 투명성 자료 요구가 포함됩니다. 또한 법률, 엔지니어링 및 정책 전문가가 협력하여 AI 프로젝트를 효과적으로 감독할 수 있도록 기능 간 협업을 강조합니다.

  • : 매핑은 AI 시스템과 관련된 위험을 식별하고 우선 순위를 지정하는 것을 의미합니다. Microsoft는 책임 있는 AI 영향 평가로 이 단계를 시작하여 피해 가능성을 평가하고 적절한 완화를 결정합니다. 개인 정보 보호 및 보안은 위협 모델링과 같은 도구를 사용하여 검토되는 반면, AI 레드 팀은 취약성을 노출할 수 있는 악의적 또는 오용 시나리오를 시뮬레이션하기 위해 사용됩니다. 이 단계는 Microsoft가 실제로 위험이 어떻게 나타나는지 이해하고 기본 모델에서 전체 애플리케이션 환경에 이르기까지 시스템을 전체적으로 평가하는 데 도움이 됩니다.

  • 측정: 위험이 식별되면 측정 단계에서는 정의된 메트릭을 사용하여 체계적으로 평가하는 데 중점을 둡니다. 이 평가에는 유해한 콘텐츠가 생성될 가능성, 안전 완화의 효과 및 근거(원본 데이터와의 사실 일치), 관련성 및 콘텐츠 안전과 같은 영역에서 AI 출력의 성능 평가가 포함됩니다. Microsoft는 안전 평가 및 적대적 테스트 데이터 세트와 같은 Azure AI 스튜디오 통합된 도구를 사용하여 출력을 모니터링합니다. 이러한 평가는 팀이 정보에 입각한 결정을 내리고 AI 동작을 구체화하여 출력이 책임 있는 사용 표준을 충족하도록 하는 데 도움이 됩니다.

  • 관리: 관리 단계에는 완화를 구현하고 수명 주기 내내 AI 시스템을 지속적으로 모니터링하는 작업이 포함됩니다. 위험 관리는 플랫폼 및 애플리케이션 수준 모두에서 발생합니다. instance 경우 모델 수준 조정에는 콘텐츠 필터 미세 조정 또는 배포가 포함될 수 있으며, 애플리케이션 수준 전략은 출력을 접지하고 직관적인 사용자 인터페이스를 설계하며 투명성을 높이기 위한 제품 내 공개를 포함하는 데 중점을 둡니다. Microsoft는 또한 단계적 롤아웃 및 지속적인 모니터링 시스템을 사용하여 성능 문제를 감지하고, 피드백을 수집하고, 인시던트에 대응합니다. 프롬프트 쉴드 같은 도구는 탈옥 시도로부터 보호하기 위해 배포되며, 콘텐츠 자격 증명은 출처와 신뢰성을 보장하기 위해 AI에서 생성된 콘텐츠에 레이블을 지정하고 추적하는 데 도움이 됩니다.

배포 전 검토 및 민감한 사용 상담

Microsoft는 책임 있는 AI 요구 사항을 중앙 집중화하고 배포 전 검토에 대한 설명서를 간소화하는 내부 워크플로 도구를 도입했습니다. 생체 인식 데이터 또는 중요한 인프라와 관련된 것과 같이 영향력이 높거나 민감한 사용 사례의 경우 Microsoft는 강화된 조사 및 윤리적 맞춤을 보장하기 위해 실습 상담을 제공합니다.

지속적인 학습 및 적응

검토 프로세스가 정적이지 않습니다. Microsoft는 다음을 기반으로 해당 사례를 지속적으로 발전합니다.

  • AI 기능의 발전
  • 고객, 규제 기관 및 시민 사회의 피드백
  • 실제 배포 환경

이러한 반복적인 접근 방식을 통해 기술 및 규제 환경이 발전하더라도 Microsoft의 AI 시스템이 신뢰할 수 있는 상태를 유지할 수 있습니다.

투명성 보고서 링크: 2025 책임 있는 AI 투명성 보고서

코필로트는 무엇이며 어떻게 작동합니까?

Microsoft Copilot Microsoft 365, Dynamics 365, GitHub 및 기타 플랫폼에 통합된 AI 기반 도우미 제품군입니다. 이러한 Copilot는 Microsoft의 엔터프라이즈급 보안, 규정 준수 및 개인 정보 보호 경계 내에서 운영하면서 생산성을 향상시키고, 작업을 자동화하고, 의사 결정을 지원합니다.

코필로트 제품

Microsoft는 각각 특정 환경에 맞게 조정된 여러 유형의 Copilot를 제공합니다.

  • Microsoft 365 Copilot: 콘텐츠 생성, 요약 및 작업 자동화를 지원하기 위해 Word, Excel, Outlook 및 Teams와 같은 앱에 포함됩니다.
  • Dynamics 365 대한 부조종사: 인사이트를 표시하고 워크플로를 자동화하여 재무, 영업 및 고객 서비스와 같은 비즈니스 프로세스를 지원합니다.
  • GitHub Copilot: IDE 내에서 코드 및 설명서를 제안하여 개발자를 지원합니다.
  • Security Copilot: 보안 분석가가 자연어 쿼리를 사용하여 위협을 조사하고 인시던트에 대응할 수 있도록 지원합니다.
  • Copilot Studio: 조직에서 로우 코드 도구를 사용하여 사용자 지정 부조종사 도구를 빌드하고 Microsoft Graph 및 Azure OpenAI와 통합할 수 있습니다.

Copilot 프로세스

Copilot는 다단계 프로세스를 통해 작동합니다.

  1. 입력: 사용자가 프롬프트를 입력합니다(예: "이 이메일 스레드 요약").
  2. 접지: 시스템은 Microsoft Graph, SharePoint 또는 기타 커넥터를 사용하여 관련 엔터프라이즈 데이터를 검색합니다.
  3. 처리: 시스템은 프롬프트 및 접지된 데이터를 Azure OpenAI 또는 다른 Microsoft 제어 환경에서 호스트되는 LLM(예: GPT-4)으로 보냅니다.
  4. 응답: 모델은 응답을 생성하고 애플리케이션 컨텍스트 내에서 사용자에게 반환합니다.
  5. 후처리: Microsoft는 출력을 표시하기 전에 안전 필터, 콘텐츠 조정 및 서식을 적용합니다.

이 아키텍처를 사용하면 Copilot 응답이 컨텍스트적으로 관련성이 있고 안전하며 엔터프라이즈 데이터 거버넌스 정책과 일치합니다.

Copilot는 어떤 데이터에 액세스하나요?

Copilot는 이미 볼 수 있는 권한이 있는 데이터에만 액세스합니다. 이 데이터에는 다음이 포함됩니다.

  • Microsoft 365의 전자 메일, 문서 및 채팅
  • Dynamics 365 CRM 레코드
  • GitHub의 코드 리포지토리
  • Microsoft Sentinel 보안 로그(Security Copilot)

Microsoft Entra ID 액세스를 제어하며 모든 데이터 액세스의 범위는 사용 권한으로 지정됩니다. Copilot는 기존 액세스 제어를 재정의하거나 무단 콘텐츠를 노출하지 않습니다. Microsoft 365 Copilot 위한 AI 보안에 대한 자세한 내용은 Microsoft 365 Copilot 대한 AI 보안을 참조하세요.

Microsoft 365용 Copilot는 약정에 표시된 대로 고객 데이터를 사용하여 기초 모델을 학습하지 않습니다. 참조는 Microsoft 제품 약관을 참조하세요. Microsoft 365용 Copilot는 OpenAI 제공 기초 모델을 사용합니다. Microsoft 365용 Copilot에서 사용하는 기본 모델은 사용량에 따라 동적으로 학습되지 않습니다. 이러한 기본 모델을 개발하는 동안 OpenAI는 모델을 학습하기 전에 데이터 익명화에 대한 높은 표준을 유지 관리합니다. OpenAI는 계속해서 이러한 시스템을 반복적으로 개선하고 인간 학습 데이터 검토를 통해 품질 관리를 유지하여 거짓 부정을 제거합니다.

Microsoft 365가 Microsoft 365 Copilot 대한 책임, 의무 및 약정을 충족하기 위해 구현하는 컨트롤에 대한 자세한 내용은 서비스 신뢰 포털을 참조하세요.

Copilot 데이터 스토리지

Copilot 상호 작용은 사용자의 Exchange Online 사서함 내에 저장됩니다. 이 데이터에는 다음이 포함됩니다.

  • 프롬프트 및 응답 쌍
  • 감사 및 규정 준수를 위한 메타데이터
  • CSD(Copilot 안전 데이터) 분석에 대한 로그

Microsoft Purview 정책은 보존을 관리합니다.

  • 기본 보존: 메시지는 구성 가능한 기간(예: 30, 90 또는 365일)에 대해 보존됩니다.
  • 삭제: 보존 기간이 지나면 데이터가 SubstrateHolds 폴더로 이동한 다음 법적 보존 또는 기타 보존 정책이 적용되지 않는 한 영구적으로 삭제됩니다.
  • eDiscovery: Microsoft Purview eDiscovery 도구를 사용하여 저장된 모든 데이터를 검색할 수 있습니다.

리소스