探讨适用于 Microsoft 365 的 Copilot 如何保护敏感业务数据
Microsoft 365 租户中的权限模型有助于确保数据不会在用户、组和租户之间无意中泄漏。 Microsoft 365 Copilot 仅显示每个人可以访问的数据,且使用与其他 Microsoft 365 服务中使用的数据访问相同的基础控件。 Copilot 的 Microsoft Graph 和语义索引也是数据源。 因此,它们还遵循基于用户标识的访问边界。 执行此操作时,基础进程仅访问当前用户有权访问的内容。 有关详细信息,请参阅 Microsoft 的 隐私策略和服务文档。
如果有 Microsoft Purview 信息保护加密的数据,则适用于 Microsoft 365 的 Copilot 不会返回它,除非用户至少具有查看使用权限。 可以使用敏感度标签或通过信息Rights Management (IRM) 在 Microsoft 365 应用中使用受限权限来应用加密。 虽然适用于 Microsoft 365 的 Copilot 生成内容可以从源继承最严格的权限或标签,但适用于 Microsoft 365 的 Copilot 会引用原始源,从而保留保护。
安全团队与资源良好、组织有序且复杂的攻击者进行非对称攻击。 为了保护其组织,安全实践者必须应对系统噪音经常隐藏的威胁。 系统噪音通常包括安全系统生成的大量数据和警报,这些数据和警报可能会使检测到实际威胁变得困难。 复杂化此挑战是全球缺乏熟练的安全专业人员。
Microsoft 在多个方面解决了这些安全难题。 在 Microsoft 365 中,Microsoft 实施了多种形式的保护,以帮助防止组织影响敏感业务数据和 Microsoft 365 服务和应用程序。 此保护还可防止客户获取对其他租户或 Microsoft 365 系统本身的未经授权的访问权限。 这些形式的保护包括:
访问控制。 首先,通过实现强多重身份验证,Microsoft 365 帐户更能抵御凭据泄露或网络钓鱼攻击。 然后,为了防止横向发现和移动,建议使用“足够访问权限”策略以避免用户过度访问数据。 适用于 Microsoft 365 的 Copilot 只访问单个用户在 SharePoint、OneDrive 和 Teams 等 Microsoft 365 服务中至少拥有"查看"访问权限的数据。 例如,如果用户无权访问 SharePoint 中的机密项目文件夹,则适用于 Microsoft 365 的 Copilot 无法查看该内容以生成响应。 对于通过适用于 Microsoft 365 的 Copilot 插件访问的内容,加密可以排除编程访问,从而限制插件访问内容。 有关详细信息,请参阅 为 Azure 信息保护配置使用权限。
独立实例。 云计算的主要优势之一是能够同时在众多客户之间共享概念基础结构,从而实现规模经济。 Microsoft 确保数据按租户逻辑隔离,并根据对企业客户的承诺进行动态加密和静态加密。 例如,Contoso 租户中运行的适用于 Microsoft 365 的 Copilot 无法查看 Fabrikam 的租户中的数据。 Microsoft 365 服务每个租户中的组织内容逻辑隔离是通过 Microsoft Entra 授权和基于角色的访问控制实现。 有关详细信息,请参阅 Microsoft 365 隔离控件。
注意
Azure Active Directory (Azure AD) 现在是 Microsoft Entra ID。 了解详细信息。
加密。 Microsoft 365 使用服务端技术来加密静态和传输中的组织数据,包括 BitLocker、传输层安全性 (TLS) 和 Internet 协议安全性 (IPsec)。 在适用于 Microsoft 365 的 Copilot 云组件传输的所有数据都使用最新的加密标准(如 TLS 1.2)进行加密。 静态存储的数据也已加密。 此设计可防止未经授权访问传输或存储中的数据。 如果用户有权访问 Dynamics 365 和 Power Platform 中的加密数据,并且用户将该数据提供给 Copilot,那么 Copilot 可以访问它。 有关 Microsoft 365 加密的具体详细信息,请参阅 Microsoft 云中的加密。
符合性边界。 使用适用于 Microsoft 365 的 Copilot 输入提示时,提示中的信息、检索到的数据以及生成的响应将保留在Microsoft 365服务边界内。 此设计符合 Microsoft 当前的隐私、安全和合规性承诺。 但是,管理员可以选择让数据超出合规性边界;例如,使用 Microsoft 必应查询公共 Web。
未使用训练数据。 适用于 Microsoft 365 的 Copilot 不使用任何客户数据(包括用户输入的提示)来训练或改进其基础 AI 模型。 适用于 Microsoft 365 的 Copilot 仅使用用户的当前上下文来调整响应。
负责任的 AI。 Microsoft 遵循负责任的 AI 开发原则,包括隐私、安全性、包容性和透明度。 这样做可以促进敏感数据的道德处理。 Microsoft 承诺遵守广泛适用的隐私法(例如 GDPR)和隐私标准(例如 ISO/IEC 27018),这是全球首个云隐私国际实践准则,从而加强你对数据的控制。
安全措施。 适用于 Microsoft 365 的 Copilot 使用 Microsoft 的全面安全措施,如威胁监视、漏洞评估和数据保护控制。 此设计有助于保护适用于 Microsoft 365 的 Copilot 服务和基础结构。
Copilot 如何保护客户数据
Microsoft 在提供企业就绪的 AI 方面具有独特的优势。 Microsoft 365 Copilot 由 Azure OpenAI 服务提供支持。 它符合 Microsoft 对其客户的现有隐私、安全性和法规承诺。
基于 Microsoft 全面的安全性、隐私和合规性方法。 Copilot 已集成到 Microsoft 365、Dynamics 365 和 Power Platform 等 Microsoft 服务中。 它继承这些服务的安全性、隐私、合规性策略和流程,例如多重身份验证和合规性边界。
多种形式保护组织数据。 服务端技术对静态和传输中的组织内容进行加密,以提高安全性。 连接使用传输层安全性 (TLS) 进行保护,Microsoft 365、Dynamics 365、Power Platform 和 Azure OpenAI 之间的数据传输通过 Microsoft 主干网络进行。 此设计既确保了可靠性,又确保了安全性。 有关详细信息,请参阅 Microsoft Cloud 中的加密。
旨在保护租户和环境级别的数据。 数据泄漏是客户非常关心的问题。 Microsoft AI 模型未经过训练,也不会从你的租户数据或提示中学习。 此规则只存在一个例子,即当组织的租户管理员选择与 Microsoft 共享数据时。 在环境中,可通过设置的权限来控制访问权限。 身份验证和授权机制在租户之间将对共享模型的请求分离开来。
重要
Microsoft 365 Copilot 仅利用用户可访问的数据。 在此过程中,它使用 Microsoft 多年来用于保护客户数据的相同技术。