智能 Microsoft 365 Copilot 副驾驶®的透明度说明

什么是透明度说明?

AI 系统不仅包括技术,还包括将使用它的人员、将受其影响的人员以及部署技术的环境。 创建适合其预期用途的系统需要了解技术的工作原理、其功能和局限性,以及如何实现最佳性能。 Microsoft的透明度说明旨在帮助你了解我们的 AI 技术的工作原理、系统所有者可以做出哪些选择来影响系统性能和行为,以及考虑整个系统(包括技术、人员和环境)的重要性。 随着服务的发展,我们将继续更新本文档。

Microsoft的透明度说明是Microsoft将 AI 原则付诸实践的更广泛努力的一部分。 若要了解详细信息,请参阅 Microsoft AI 原则

智能 Microsoft 365 Copilot 副驾驶®基础知识

简介

智能 Microsoft 365 Copilot 副驾驶®是一种 AI 驱动的生产力工具,它使用大型语言模型 (LLM) ,并将数据与 Microsoft Graph 和 Microsoft 365 应用和服务集成。 它与常用 Microsoft 365 应用版(如 Word、Excel、PowerPoint、Outlook、Teams 等)一起使用。

智能 Microsoft 365 Copilot 副驾驶®使用 Azure OpenAI 服务提供的模型的组合。 这使我们可以将每个功能的特定需求(例如速度、创造力)与正确的模型相匹配,以便智能 Microsoft 365 Copilot 副驾驶®可以提供实时智能帮助,使用户能够提高他们的创造力、生产力和技能。

有关 OpenAI 提供给 Microsoft 的 LLM 的其他详细信息,请参阅模型 - OpenAI API 中提供的公共文档。

关键术语

术语 描述
用户提示 用户提示是发送到智能 Microsoft 365 Copilot 副驾驶®以执行特定任务或提供信息的文本。 例如,用户可能会输入以下提示:在财政年度结束时写一封祝贺我的团队的电子邮件。
正在处理 在 智能 Microsoft 365 Copilot 副驾驶® 中处理用户提示涉及多个步骤,包括负责任的 AI 检查,以确保智能 Microsoft 365 Copilot 副驾驶®提供相关且可作的响应。
基础设置 地面是指向与用户提示相关的 LLM 提供输入源的过程。 通过使智能 Microsoft 365 Copilot 副驾驶®能够访问用作输入源的数据(例如来自 Microsoft Graph 或必应的数据),智能 Microsoft 365 Copilot 副驾驶®可以向用户提供更准确、更符合上下文的响应。
Microsoft Graph Microsoft Graph 是 Microsoft 365 中通往数据和智能的网关。 它包括有关用户、活动和组织数据之间的关系的信息。
Microsoft Graph 连接器 Microsoft Graph 连接器提供了一种将外部服务中的内容引入 Microsoft Graph 的方法,使外部数据能够支持Microsoft 365 智能体验,例如Microsoft搜索和智能 Microsoft 365 Copilot 副驾驶®。
索引 Microsoft使用 Microsoft Graph 数据的词法索引和语义索引,以对企业数据中的智能 Microsoft 365 Copilot 副驾驶®进行地面响应。 索引可将用户提示解释为生成上下文相关的响应。 有关索引的详细信息,请参阅 系统行为
扩充提示 将其他说明添加到用户的输入提示时,系统会扩充提示,以指导智能 Microsoft 365 Copilot 副驾驶®生成更具体、更相关的响应。
交互内容 用于描述用户的提示和智能 Microsoft 365 Copilot 副驾驶®该提示的响应的术语。
大型语言模型 (LLM) 在此上下文中, (LLM) 的大型语言模型是在大量文本数据上训练的 AI 模型,用于预测序列中的单词。 LLM 能够执行各种任务,例如文本生成、摘要、翻译、分类等。
LLM 响应 LLM 生成的内容,作为对返回到智能 Microsoft 365 Copilot 副驾驶®的用户提示的响应。
后处理 处理智能 Microsoft 365 Copilot 副驾驶®在收到来自 LLM 的响应后执行。 此后处理包括对 Microsoft Graph 的其他地面调用、负责任的 AI、安全性、合规性和隐私检查。
负责任的 AI Microsoft基于我们的 AI 原则并通过负责任的 AI 标准实施的政策、研究和工程实践。
Agents 代理旨在根据预定义的说明和对组织数据的访问权限,使用 AI 自动执行业务流程。 他们可以代表个人或团队提供协助或独立行动,从简单的提示和响应交互到完全自主的任务执行。 有关在 Copilot 代理中使用 AI 的详细信息,请直接参阅这些产品/服务。
红队测试 专家用来评估系统的局限性和漏洞并测试计划缓解措施的有效性的技术。 红队测试用于识别潜在风险,不同于对风险的系统度量。

功能

功能

功能 说明
Word 中的智能 Microsoft 365 Copilot 副驾驶® Word中的智能 Microsoft 365 Copilot 副驾驶®可高效和创造性地转换写作,使用户可以创建、汇总、理解、优化和提升文档。 用户还可以使用增强功能,例如可视化文本并将其转换为表格。 其他一些功能还包括添加到现有提示、通过引用其他文档来起草文档以及发现有关文档的信息。

有关详细信息,请参阅 Word 中有关 Copilot 的常见问题解答
PowerPoint 中的智能 Microsoft 365 Copilot 副驾驶® PowerPoint 中的智能 Microsoft 365 Copilot 副驾驶®允许用户利用企业模板从提示或Word文件创建新演示文稿。 聊天功能启用“摘要”和“Q&A”,而轻型命令使用户能够添加幻灯片、图片或进行幻灯片范围的格式更改。 PowerPoint 文件还可用于对数据进行接地。

有关详细信息,请参阅 PowerPoint 中有关 Copilot 的常见问题解答
Excel 中的智能 Microsoft 365 Copilot 副驾驶® Excel 中的智能 Microsoft 365 Copilot 副驾驶®可帮助用户提供有关电子表格中数据的公式、图表类型和见解的建议。

有关详细信息,请参阅 Excel 中有关 Copilot 的常见问题解答
Outlook 中的智能 Microsoft 365 Copilot 副驾驶® Outlook 中的智能 Microsoft 365 Copilot 副驾驶®有助于管理电子邮件收件箱,并更有效地创建有影响力的通信。 Outlook 中的智能 Microsoft 365 Copilot 副驾驶®可以汇总电子邮件会话、建议作项目、答复和后续会议。 在撰写电子邮件时,它还可以调整长度和语气。

有关详细信息,请参阅 Outlook 中有关 Copilot 的常见问题解答
Teams 中的智能 Microsoft 365 Copilot 副驾驶® Teams 中的智能 Microsoft 365 Copilot 副驾驶®可以回顾对话、组织关键讨论点以及总结关键作。 用户可以获取特定问题的答案,并跟进他们在会议或聊天中错过的内容

有关详细信息,请参阅 有关 Microsoft Teams 中的 Copilot 的常见问题解答
Loop 中的智能 Microsoft 365 Copilot 副驾驶® Loop中的智能 Microsoft 365 Copilot 副驾驶®允许用户创建可通过 Copilot 直接编辑或优化协作改进的内容。

有关详细信息,请参阅 Loop 中有关 Copilot 的常见问题解答
Microsoft Stream 中的智能 Microsoft 365 Copilot 副驾驶® Microsoft Stream中的智能 Microsoft 365 Copilot 副驾驶®有助于通过脚本从任何视频中获取信息。 Stream中的智能 Microsoft 365 Copilot 副驾驶®可以提供视频摘要、回答特定问题、快速跳转到特定主题或讨论点,并确定行动号召。

有关详细信息,请参阅 Stream 中有关 Copilot 的常见问题解答
Whiteboard 中的智能 Microsoft 365 Copilot 副驾驶® Whiteboard 中的智能 Microsoft 365 Copilot 副驾驶®有助于启动构思过程,以生成、分类和总结想法。

有关详细信息,请参阅 Whiteboard 中有关 Copilot 的常见问题解答
OneNote 中的智能 Microsoft 365 Copilot 副驾驶® OneNote 中的智能 Microsoft 365 Copilot 副驾驶®使用户能够起草计划、生成想法、创建列表和组织信息,以帮助他们在 OneNote 应用中找到所需的内容。

有关详细信息,请参阅 OneNote 中有关 Copilot 的常见问题
Microsoft 365 Copilot 对话助手 智能 Microsoft 365 Copilot 副驾驶® 对话助手 (以前名为 Business Chat) 将大型语言模型的强大功能与 Internet、工作内容和上下文以及其他应用相结合,可帮助用户起草内容、跟进错过的内容,并通过提示获取问题的答案。

有关详细信息,请参阅有关智能 Microsoft 365 Copilot 副驾驶® 对话助手的常见问题解答
SharePoint 格式文本编辑器中的智能 Microsoft 365 Copilot 副驾驶® Microsoft SharePoint 富文本编辑器中的智能 Microsoft 365 Copilot 副驾驶®简化了 SharePoint 页面和文章上的内容创建。 使用 Copilot,你可以重写文本、调整语气、浓缩信息并阐述想法。

有关详细信息,请参阅 SharePoint 中有关 Copilot 的常见问题解答
OneDrive 中的智能 Microsoft 365 Copilot 副驾驶® OneDrive 中的智能 Microsoft 365 Copilot 副驾驶®是一种创新的 AI 支持助手旨在通过提取信息、比较关键差异、汇总文件和生成见解来帮助你与文档进行交互。

有关详细信息,请参阅 有关 OneDrive 中 Copilot 的常见问题解答
智能 Microsoft 365 Copilot 副驾驶®概览卡 概览卡提供工作实体(如文档)的快速预览,以帮助评估相关性或召回率。 通过将鼠标悬停在智能 Microsoft 365 Copilot 副驾驶®应用的“搜索”选项卡中的文件上来访问它们。
智能搜索 智能搜索支持使用自然语言在 Dataverse 应用程序(如Dynamics 365 Sales、服务和金融 & 运营)中搜索。
Power Platform 连接器 借助 Power Platform 连接器,客户能够在智能 Microsoft 365 Copilot 副驾驶®体验中访问来自业务和个人生产力应用程序集合的实时数据。
Microsoft Graph 连接器 Microsoft Graph 连接器支持与外部数据源的连接,包括每个智能 Microsoft 365 Copilot 副驾驶®许可证最多 500 个项目。
Microsoft Purview Microsoft Purview 是一种解决方案,可帮助组织管理和保护其数据。 它为数据治理、信息保护、风险管理和合规性提供了统一的平台。 客户可以扩展客户Microsoft订阅提供的 Microsoft Purview 功能, (例如,Microsoft 365 E3或 E5 订阅) 智能 Microsoft 365 Copilot 副驾驶®数据和交互。
Microsoft 365 Copilot 调整 Microsoft 365 Copilot 调整允许组织使用自己的租户数据微调大型语言模型 (LLM) 。 这些模型可用于根据组织的独特知识执行特定于域的任务。

有关详细信息,请参阅Microsoft 365 Copilot 调整的负责任 AI 常见问题解答
Microsoft Copilot Studio Microsoft Copilot Studio 是一个功能强大的平台,用于构建跨 Microsoft 365 和业务线系统运行的安全、可缩放和智能代理。 Copilot Studio提供了两种构建 AI 代理的方法:一种是集成到 (智能 Microsoft 365 Copilot 副驾驶® 应用) 中的精简体验,一种是 (独立Copilot Studio应用程序) 的完整体验。

有关详细信息,请参阅选择合适的Copilot Studio体验
使用计算机代理智能 Microsoft 365 Copilot 副驾驶® 使用计算机使用代理智能 Microsoft 365 Copilot 副驾驶®可以自动执行浏览器或桌面任务,以便提示可以更多地使用内容和上下文。 由于代理可以代表你执行任务,因此可能会增加系统安全或隐私风险。 为了帮助缓解此风险,代理具有多种安全措施,包括针对内容和作的模型驱动安全检查,以及启用或禁用计算机使用代理的租户管理员控制,以及限制代理可以访问的 Internet 站点和域。 建议应用这些控制并监视代理的使用情况。

系统行为

智能 Microsoft 365 Copilot 副驾驶®使用 LLM 的组合来汇总、预测和生成内容。 这些 LLM 包括预先训练的模型,例如生成式预训练转换器 (GPT) OpenAI 中的 GPT-4 和 GPT-5,旨在在这些任务中表现出色。

用户在 Microsoft 365 应用程序中看到的功能显示为其他特性、功能和提示功能。 LLM 和专有Microsoft技术在基础系统中协同工作,可帮助人们安全地访问、使用和管理其组织数据。

  • Microsoft 365 个应用 (,如 Word、Excel、PowerPoint、Outlook、OneNote、Teams 和 Loop) 使用 智能 Microsoft 365 Copilot 副驾驶® 运行,以支持用户的工作流。 例如,Word中的智能 Microsoft 365 Copilot 副驾驶®旨在专门帮助用户创建、理解和编辑文档。 同样,其他应用中的 Microsoft 365 Copilot 可帮助用户在这些应用中完成工作。

  • Microsoft Graph 一直是 Microsoft 365 的基础。 它包括有关用户、活动和组织数据之间的关系的信息。 Microsoft图形 API将来自客户信号的更多上下文引入提示,例如电子邮件、聊天、文档和会议的信息。 有关详细信息,请参阅 Microsoft Graph 概述Microsoft Graph 中的主要服务及功能

  • 智能 Microsoft 365 Copilot 副驾驶® 对话助手使客户能够将工作内容和上下文引入智能 Microsoft 365 Copilot 副驾驶®的聊天功能。 借助智能 Microsoft 365 Copilot 副驾驶® 对话助手,用户可以起草内容、跟进他们错过的内容,并通过开放式提示获取问题的答案,所有这些提示都安全地基于工作数据。 在许多图面(包括Microsoft Teams 内部、Microsoft365.com 和 copilot.microsoft.com)使用智能 Microsoft 365 Copilot 副驾驶® 对话助手

  • 语义索引 是从 Microsoft Graph 中的内容生成的索引。 它用于帮助处理用户提示,以生成与上下文相关的响应。 它允许组织搜索数十亿个矢量, (特征或属性的数学表示形式) 并返回相关结果。 语义索引旨在尊重单个用户的安全上下文,并且仅显示用户可访问的内容。 语义索引基于Microsoft的综合安全性、合规性、隐私方法,并尊重客户租户中的所有组织边界。 有关详细信息,请参阅 Copilot 的语义索引

下面是有关 Microsoft 365 Copilot 工作原理的说明:

  • 智能 Microsoft 365 Copilot 副驾驶®从应用中的用户(如 Word 或 PowerPoint)接收输入提示。

  • 智能 Microsoft 365 Copilot 副驾驶®然后处理用户提示,这提高了提示的针对性,以帮助用户获取与其特定任务相关且可作的答案。 提示可以包含输入文件的文本或智能 Microsoft 365 Copilot 副驾驶®使用 Microsoft Graph 发现的其他内容,智能 Microsoft 365 Copilot 副驾驶®将此提示发送到 LLM 进行处理。 智能 Microsoft 365 Copilot 副驾驶®仅访问单个用户有权访问的数据,例如,基于现有Microsoft 365 个基于角色的访问控制。

  • 智能 Microsoft 365 Copilot 副驾驶®从 LLM 获取响应并对其进行后处理。 此后处理包括对 Microsoft Graph 的其他地面调用、负责任的 AI 检查(如内容分类器、安全性、合规性和隐私检查)以及命令生成。

  • 智能 Microsoft 365 Copilot 副驾驶®将响应返回到应用,用户可以在其中查看和评估响应。

数据在存储时会加密,不用于训练Azure OpenAI 服务基础 LLM,包括智能 Microsoft 365 Copilot 副驾驶®使用的数据。 有关此内容的详细信息,请参阅智能 Microsoft 365 Copilot 副驾驶®的数据、隐私和安全性

智能 Microsoft 365 Copilot 副驾驶®如何在没有 Web 内容或组织数据的情况下生成响应

智能 Microsoft 365 Copilot 副驾驶®不需要 Web 内容或组织数据来提供响应,但该信息可以帮助提高响应的质量、准确性和相关性。 在没有 Web 或组织数据的情况下做出响应时,智能 Microsoft 365 Copilot 副驾驶®仅依赖于其 LLM 来了解提示并生成响应。 此过程涉及分析输入、利用模型的内部知识库,以及优化响应以确保它符合上下文。

扩展性和自定义

可以使用集成到 智能 Microsoft 365 Copilot 副驾驶® 应用中的 Copilot Studio 精简体验生成代理。 可以描述代理应执行的作,也可以通过直观的体验对其进行配置。 这些代理允许你定义特定说明和知识,这些说明和知识塑造 Copilot 在业务方案中的行为方式。 由于它们在与智能 Microsoft 365 Copilot 副驾驶®相同的业务流程协调程序、基础模型和受信任的 AI 服务上运行,因此它们提供了一种一致且安全的方式来增强协作、简化工作流并提高整个组织的工作效率。

对于更复杂的工作流,可以使用Copilot Studio完整体验,它提供了丰富的图形环境来设计、测试和部署可以代表其执行作的自治代理。 对于开发人员,Microsoft 365 智能体 SDK提供了构建与 Microsoft 365 应用和服务深度集成的代理的工具。

有关详细信息,请参阅选择合适的Copilot Studio体验

用例

智能 Microsoft 365 Copilot 副驾驶®是一项常规用途服务,旨在通过连接工作数据并与客户每天使用的应用集成来帮助任何组织完成各种日常任务。 例如:

  • 聊天和对话交互和创建:用户可以与智能 Microsoft 365 Copilot 副驾驶® 对话助手交互,并生成从受信任的文档(如内部公司文档或技术支持文档)中提取的响应。

  • 搜索:用户可以搜索受信任的源文档,例如公司内部文档。

  • 摘要:用户可以为应用程序中内置的预定义主题提交要汇总的内容。 示例包括 Teams 聊天、电子邮件、网页和Word文档的摘要。

  • 特定主题的写作帮助:用户可以创建新内容或重写用户提交的内容,作为业务内容或预定义主题的写作辅助。 例如,在 Outlook Microsoft 中起草电子邮件或在 Microsoft Word 中编写内容。

  • 字幕或听录:用户可以将音频文件转录为文本,以便进行自然语言理解或摘要分析任务。 示例包括 Teams 会议脚本和Microsoft Stream上的视频。

Microsoft提供有关常见用例和方案的详细指南,帮助客户加速将智能 Microsoft 365 Copilot 副驾驶®功能集成到其组织中。 有关详细信息,请参阅Microsoft Copilot方案库 - Microsoft采用

选择用例时的注意事项

我们鼓励用户在使用智能 Microsoft 365 Copilot 副驾驶®生成的所有内容之前查看它。 响应质量和准确性取决于多个因素,包括使用的模型。 此外,建议避免某些方案。 在某些情况下,有意义的人工监督和审查可以进一步降低有害结果的风险。

  • 避免使用或滥用系统可能导致个人受到重大身体或心理伤害。 例如,诊断患者或开药的方案可能会造成重大伤害。

  • 避免使用或滥用该系统可能会对生活机会或法律地位产生后果性影响。 示例包括 AI 系统可能影响个人的法律地位、法律权利或其获得信贷、教育、就业、医疗保健、住房、保险、社会福利福利、服务、机会或提供这些权利的条件的方案。

  • 仔细考虑高风险域或行业的用例。 示例包括但不限于医疗或财务。

限制

智能 Microsoft 365 Copilot 副驾驶®的具体限制

  1. 集成和兼容性:虽然智能 Microsoft 365 Copilot 副驾驶®旨在与 Microsoft 365 应用程序无缝集成,但在某些环境中可能存在兼容性方面的限制或问题,尤其是第三方 (非Microsoft) 应用以及自定义或非标准配置。

  2. 自定义和灵活性:虽然可以定制智能 Microsoft 365 Copilot 副驾驶®,但可以自定义多少以满足特定组织需求或工作流存在限制。 组织可能会发现某些功能或响应僵化或与组织要求不完全一致。

  3. 依赖于 Internet 连接:智能 Microsoft 365 Copilot 副驾驶®依赖于 Internet 连接才能正常运行。 连接的任何中断都可能影响服务的可用性和性能。

  4. 用户培训和采用:有效使用智能 Microsoft 365 Copilot 副驾驶®需要用户了解其功能和限制。 可能存在学习曲线,需要对用户进行培训,以便有效地与服务交互并从中受益。

  5. 资源强度:运行高级 AI 模型需要大量的计算资源,这可能会影响性能,尤其是在资源受限的环境中。 用户在高峰使用期间可能会遇到延迟或性能问题。

  6. 法律和合规性注意事项:组织在使用智能 Microsoft 365 Copilot 副驾驶®时,需要考虑其特定的法律和合规性义务,尤其是在受管制行业。 Microsoft正在审查适用于Microsoft作为技术提供商的法规要求,并通过持续改进过程在产品中解决这些问题。

  7. 偏见、陈规定型观念和不合时宜的内容:尽管 OpenAI 进行了强化培训,并通过对用户提示和 LLM 输出Microsoft实施负责任的 AI 控制,但 AI 服务是容易犯错误和概率的。 这使得全面阻止所有不适当的内容具有挑战性,导致 AI 生成的内容中存在潜在的偏见、成见或不合时宜。 有关 AI 生成内容的已知限制的详细信息,请参阅 Azure OpenAI 服务的透明度说明,其中包含对智能 Microsoft 365 Copilot 副驾驶®背后的 LLM 的引用。

智能 Microsoft 365 Copilot 副驾驶®性能

在许多 AI 系统中,性能通常根据准确性来定义,即 AI 系统提供正确预测或输出的频率。 使用智能 Microsoft 365 Copilot 副驾驶®,两个不同的用户可能会查看相同的输出,并且对输出的有用程度或相关性有不同的看法,这意味着必须更灵活地定义这些系统的性能。 我们普遍认为性能意味着应用程序按用户预期执行。

改进智能 Microsoft 365 Copilot 副驾驶®体验的最佳做法

若要提高与智能 Microsoft 365 Copilot 副驾驶®输出准确性相关的性能,我们建议组织考虑以下事项:

  • 编写良好的提示。 编写良好的提示是使用智能 Microsoft 365 Copilot 副驾驶®获得更好结果的关键。 就像有一些技术可以帮助人们有效地与人进行沟通一样,也有一些指南可以帮助用户在编写提示时通过智能 Microsoft 365 Copilot 副驾驶®获得更好的结果。 例如:包括详细信息、结构提示、提供积极说明、循环访问和重新生成,以及始终查看和验证 AI 生成的响应。 有关详细信息,请参阅 使用 Copilot 提示获取更好的结果

  • 允许引用 Web 内容。 允许智能 Microsoft 365 Copilot 副驾驶®引用 Web 内容可以提高智能 Microsoft 365 Copilot 副驾驶®响应的质量、准确性和相关性,在这些响应中,响应将受益于来自 Web 的当前公共信息。 但请注意,当智能 Microsoft 365 Copilot 副驾驶®引用 Web 内容时,它通过必应搜索服务执行此作,并且必应搜索查询的数据处理做法与智能 Microsoft 365 Copilot 副驾驶®处理数据的方式不同。 每个用户和 Microsoft 之间的 Microsoft 服务协议 以及 Microsoft 隐私声明均介绍了对必应的使用。

  • 在 Microsoft Graph 中扩展接地。 智能 Microsoft 365 Copilot 副驾驶®使用来自 Microsoft Graph 的数据到组织特定数据(如电子邮件、聊天、文件和日历)中的地面响应。 通过使用来自 CRM 系统或外部文件存储库等源的组织数据扩展 Microsoft Graph,组织可以包含其他特定于上下文的相关信息,从而进一步增强智能 Microsoft 365 Copilot 副驾驶®响应的丰富性和准确性。

映射、测量和管理风险

与其他转型技术一样,利用 AI 的优势并非无风险,Microsoft负责任的 AI 计划的核心部分旨在识别潜在风险、衡量其发生倾向,并构建缓解措施来管理这些风险。 以我们的 AI 原则和负责任的 AI Standard为指导,并基于其他生成 AI 产品和集中缓解基础结构的学习, (例如,Azure AI 内容安全) ,我们寻求映射、衡量和管理潜在风险和滥用智能 Microsoft 365 Copilot 副驾驶®同时确保新体验提供的变革性和有益的用途。 在以下部分中,我们将介绍用于映射、度量和管理潜在风险的迭代方法。

Map

在模型级别,我们的工作始于 2022 年夏末对 GPT-4 的探索性分析。 这包括与 OpenAI 合作进行广泛的红队测试。 此测试旨在评估最新技术的工作原理,而无需应用任何额外的安全措施。 我们目前的具体意图是识别风险,发现潜在的滥用途径,并确定功能和限制。 我们在 OpenAI 和 Microsoft方面的综合学习有助于模型开发的进步,对于我们在 Microsoft,我们了解了风险,并有助于我们所有生成 AI 技术的早期缓解策略,包括智能 Microsoft 365 Copilot 副驾驶®。

除了模型级红队测试外,一支多学科专家团队还对智能 Microsoft 365 Copilot 副驾驶®经验进行了应用级红队测试,然后将其公开发布。 此过程帮助我们更好地了解了如何利用系统并改进我们的缓解措施。 发布后,智能 Microsoft 365 Copilot 副驾驶®中的新 AI 体验已集成到工程组织现有的生产测量和测试基础结构中。

评估

红队测试可以发现特定风险的实例,但在生产环境中,用户将与智能 Microsoft 365 Copilot 副驾驶®进行数百万种不同类型的交互。 此外,交互是上下文交互,通常是多轮次的,识别交互中的有害内容是一项复杂的任务。 为了更好地了解和解决生成式 AI 服务(包括智能 Microsoft 365 Copilot 副驾驶®体验)的潜在风险,我们针对这些新的 AI 体验开发了负责任的 AI 评估,用于测量潜在风险,例如越狱、有害内容和非背景内容。

作为一个说明性示例,更新的有害内容的部分自动化度量管道包括两个主要创新:对话模拟和自动人工验证的聊天注释。 首先,负责任的 AI 专家构建了模板来捕获可能导致不同类型的有害内容的对话结构和内容。 然后,将这些模板提供给会话代理,该代理以假设用户身份与智能 Microsoft 365 Copilot 副驾驶®交互,生成模拟对话。 为了确定这些模拟对话是否包含有害内容,我们采用了通常由专家语言学家用来标记数据的指南,并对其进行了修改,供 LLM 用于大规模标记对话,并完善了准则,直到模型标记的对话和人为标记的对话之间达成重大一致。 最后,我们使用模型标记的对话来了解智能 Microsoft 365 Copilot 副驾驶®在减少有害内容方面的有效性。

我们的测量管道使我们能够快速对潜在风险进行大规模测量。 当我们通过预览期和持续的红队测试发现新问题时,我们会继续扩展和改进度量集,以评估其他风险。

管理

当我们通过红队测试等流程识别潜在风险和滥用情况并对其进行测量时,我们开发了缓解措施来降低危害的可能性。 下面,我们将介绍其中的一些缓解措施。 我们将继续监视智能 Microsoft 365 Copilot 副驾驶®体验,以提高产品性能和缓解措施。

  • 分阶段发布,持续评估。 随着技术和用户行为的发展,我们致力于不断学习和改进负责任的 AI 方法。 我们将定期对智能 Microsoft 365 Copilot 副驾驶®进行更改,以提高产品性能、改进现有缓解措施,并实施新的缓解措施,以响应我们的学习。

  • 业务数据的基础。 大型语言模型的一个已知风险是它们能够生成非背景内容,这些内容看起来正确,但在源材料中不存在。 智能 Microsoft 365 Copilot 副驾驶®中的一项重要缓解措施是,将 AI 生成的内容基于用户的权限访问的相关业务数据进行地面处理。 例如,根据用户提示,智能 Microsoft 365 Copilot 副驾驶®提供了相关的业务文档,以在文档中做出响应。 但是,在汇总来自各种源的内容时,智能 Microsoft 365 Copilot 副驾驶®的响应中可能包含其输入源中不存在的信息。 换句话说,它可能会产生非背景结果。 使用智能 Microsoft 365 Copilot 副驾驶®的输出时,用户应始终谨慎行事,并做出最佳判断。 我们已采取多项措施,以降低用户可能过度依赖非地面 AI 生成内容的风险。 如果可能,智能 Microsoft 365 Copilot 副驾驶®中基于业务文档的响应包括对源的引用,供用户验证响应并了解详细信息。 还会向用户明确通知他们正在与 AI 系统交互,并建议检查源材料,以帮助他们做出最佳判断。

  • 基于 AI 的分类器和元分析,可缓解潜在风险或误用。 使用 LLM 可能会产生可能导致伤害的问题内容。 示例可能包括与自我伤害、暴力、图形内容、生物安全问题、受保护材料、不准确的信息、仇恨言论或可能与非法活动相关的文本相关的输出。 Azure AI 内容安全和元分析中可用的分类器是智能 Microsoft 365 Copilot 副驾驶®中实现的缓解措施的两个示例,可帮助降低这些类型内容的风险。 分类器对文本进行分类,以在用户提示或生成的响应中标记不同类型的潜在有害内容。 智能 Microsoft 365 Copilot 副驾驶®使用基于 AI 的分类器和内容筛选器。 标志会导致潜在的缓解措施,例如不向用户返回生成的内容或将用户转移到其他主题。 Microsoft为管理员用户提供某些内容筛选控件,其中筛选智能 Microsoft 365 Copilot 副驾驶® 对话助手中潜在的有害或敏感内容无法满足其需求。 元prompting涉及向模型提供指导其行为的指令,包括使系统的行为符合Microsoft的 AI 原则和用户期望。 例如,元prompt 可能包含一行,例如“使用用户选择的语言进行通信”。

  • 提示扩充。 在某些情况下,用户的提示可能不明确。 发生这种情况时,智能 Microsoft 365 Copilot 副驾驶®可以使用 LLM 来帮助在提示中构建更多详细信息,以帮助确保用户获得他们正在寻求的响应。 这种提示扩充不依赖于用户或其先前搜索的任何知识,而是依赖于 LLM。

  • 以用户为中心的设计和用户体验干预。 以用户为中心的设计和用户体验是Microsoft实现负责任的 AI 方法的一个重要方面。 目标是将产品开发根植于用户的需求和期望。 当用户首次与智能 Microsoft 365 Copilot 副驾驶®交互时,我们提供各种接触点,旨在帮助他们了解系统的功能,向他们披露智能 Microsoft 365 Copilot 副驾驶®由 AI 提供支持,并传达限制。

  • AI 披露。 智能 Microsoft 365 Copilot 副驾驶®为有意义的 AI 披露提供了多个接触点,其中通知用户他们正在与 AI 系统交互,并有机会了解有关智能 Microsoft 365 Copilot 副驾驶®的详细信息。 例如,在 Word 应用中使用 智能 Microsoft 365 Copilot 副驾驶® 时,会同时提供 AI 生成的内容,并通知 AI 生成的内容可能包含错误。 为用户提供这些知识可以帮助他们避免过度依赖 AI 生成的输出,并了解系统的优势和限制。

  • 媒体来源。 对于使用 Designer 的编辑功能从智能 Microsoft 365 Copilot 副驾驶®内创建的所有图像,我们实施了基于 C2PA 标准的内容凭据和来源,以帮助用户确定图像是使用 AI 编辑还是生成。 可以在 内容凭据网站上查看来源元数据。

  • 反馈和持续评估。 智能 Microsoft 365 Copilot 副驾驶®体验以现有工具为基础,使用户能够提交有关我们产品的反馈。 用户可以提交有关智能 Microsoft 365 Copilot 副驾驶®生成内容的反馈,方法是使用选择响应上的“竖起大拇指”或“向下大拇指”按钮后显示的窗格。 用户提交的反馈用于改进产品/服务,这是我们提高产品性能承诺的一部分。 客户管理员可以查看Microsoft 365 管理中心中提交的反馈。 作为对服务的持续评估和改进的一部分,我们还不断改进和测试智能 Microsoft 365 Copilot 副驾驶®和特定缓解措施的性能。 有关详细信息,请参阅提供有关使用 Microsoft 365 应用的Microsoft Copilot的反馈

随着我们了解详细信息,我们绘制、衡量和管理风险的方法将继续发展,并且我们已经根据从客户收到的反馈进行改进。

评估和集成组织的智能 Microsoft 365 Copilot 副驾驶®

部署和采用优化

Microsoft为Microsoft 365 客户提供Microsoft Copilot仪表板等工具,并在Microsoft 365 管理中心中提供报表。 这些工具旨在帮助组织衡量智能 Microsoft 365 Copilot 副驾驶®的使用情况、采用和影响。 例如:

  • 智能 Microsoft 365 Copilot 副驾驶®使用情况报告使管理员能够查看用户采用、保留和参与方式与智能 Microsoft 365 Copilot 副驾驶®的摘要。 有关详细信息,请参阅智能 Microsoft 365 Copilot 副驾驶®用法

  • 采用分数可让管理员深入了解其组织如何使用智能 Microsoft 365 Copilot 副驾驶®。 它提供 100 分的分数、采用数据和趋势的仪表板视图,以及用于创建用户调查以收集反馈的工具。

  • Experience Insights (预览版) 仪表板 显示各个使用情况的数据,以便更全面地了解组织使用 Microsoft 365 的体验,包括对培训、应用和服务数据以及用户反馈的见解。

详细了解智能 Microsoft 365 Copilot 副驾驶®

了解有关代理的详细信息

详细了解负责任 AI