上次更新时间:2025 年 8 月

什么是透明度说明?

AI 系统不仅包括技术,还包括将使用它的人员、将受技术影响的人员和部署技术的环境。 Microsoft的透明度说明旨在帮助你了解 Copilot 背后的 AI 技术的工作原理、我们所做的影响系统性能和行为的选择,以及考虑整个系统的重要性,以便 Copilot 的用户能够控制自己的体验,并了解我们为提供安全可靠的产品而采取的步骤。

Microsoft的透明度说明是Microsoft将 AI 原则付诸实践的更广泛努力的一部分。 若要了解详细信息,请参阅 Microsoft AI 原则。 

Microsoft Copilot的基础知识

简介

Copilot 是一种 AI 支持的体验,它将帮助为用户提供他们正在寻求的信息,同时准备支持用户回答各种问题,而不管情况或主题如何。 更新的 Copilot 不仅回答基本信息检索查询,还专注于生成内容,以在完成任务时为用户提供更主动的支持。 我们越来越了解 AI 如何帮助人们学习、发现和提高创造力,这要求我们构建不同类型的产品。 新的 Copilot 体验旨在成为一种开放式和动态的新型体验,以更直观的方式更好地满足用户需求。

在 Microsoft,我们认真对待负责任的 AI 承诺。 更新的 Copilot 体验是按照Microsoft的 AI 原则Microsoft的负责任 AI Standard开发,并与公司内负责任的 AI 专家(包括Microsoft负责任 AI 办公室、我们的工程团队、Microsoft研究和 Aether)合作开发的。 可 在此处Microsoft了解有关负责任 AI 的详细信息。  

本文档介绍适用于 Copilot 的负责任 AI 的方法。 在发布之前,我们利用Microsoft最先进的方法来映射、测量和管理潜在风险和系统滥用,并确保其为用户带来的好处。 随着我们不断改进 Copilot,我们还继续学习和改进负责任的 AI 工作。 本文档将定期更新,以传达我们不断发展的过程和方法。  

关键术语

分类    帮助将数据排序为已标记的类或信息类别的机器学习模型。 在更新的 Copilot 体验中,我们使用分类器的一种方法是帮助检测用户提交或系统生成的潜在有害内容,以缓解该内容的生成以及系统滥用或滥用。 

接地    对于用户正在查找信息的某些对话,Copilot 基于 Web 搜索结果。 这意味着 Copilot 将其响应集中在来自 Web 的高排名内容上,并在生成的文本响应后提供超链接引文。 请注意,目前,语音模式下的用户提示不会触发 Web 搜索,因此,任何响应都不会包含引文。

大型语言模型 (LLM)     在此上下文中, (LLM) 的大型语言模型是在大量文本数据上训练的 AI 模型,用于预测序列中的单词。 LLM 可以执行各种任务,例如文本生成、摘要、翻译、分类等。

缓解    一种方法或方法组合,旨在降低在 Copilot 中使用 AI 功能时可能产生的潜在风险。

多模式模型 (MMM)     多模式模型 (MMM) 是在不同类型的数据(如文本、图像或音频)上训练的 AI 模型。 这些模型可以执行各种任务,例如编写文本、描述图像、识别语音以及跨不同类型的数据查找信息。

提示    用户发送到 Copilot 以文本、图像和/或音频的形式输入,以便与 Copilot 中的 AI 功能进行交互。

红色组合    专家用来评估系统的局限性和漏洞并测试计划缓解措施的有效性的技术。 红队测试包括采用良性和对抗角色来识别潜在风险的测试人员,与风险的系统测量不同。

响应    Copilot 在响应提示时输出的文本、图像或音频,或者作为用户来回作的一部分。 “response”的同义词包括“completion”、“generation”和“answer”。

) (SLMs 的小型语言模型     在此上下文中,) (SLM 的小语言模型是 AI 模型,与大型语言模型相比,这些模型根据更小、更集中的数据量进行训练。 尽管其大小较小,但 SLM 仍可执行各种任务,例如文本生成、汇总、翻译和分类。 虽然它们可能与 LLM 的广泛功能不匹配,但 SLM 通常具有更高的资源效率,并且对于特定的目标应用程序来说可能非常有效。 

系统消息    系统消息 (有时称为“元prompt”) 是一个用于指导系统行为的程序。 系统消息的某些部分有助于使系统行为与Microsoft AI 原则和用户期望保持一致。 例如,系统消息可能包含一行,例如“不要提供信息或创建可能导致身体、情感或经济损失的内容”。 

功能

系统行为

借助 Copilot,我们开发了一种创新方法,为用户提供更个性化的 AI 体验,从而获得可帮助用户完成各种任务的引人入胜的体验。 这种创新方法利用各种先进技术,例如来自 Microsoft、OpenAI 和其他模型开发人员的语言和多模式模型。 在公开发布之前,我们努力为基于新 Copilot 体验的模型实施安全技术,以开发一组自定义的功能和行为,以提供增强的 Copilot 体验。 在更新的 Copilot 中,用户可以以自然语言文本或语音发送提示。 响应以多种不同的格式呈现给用户,例如文本形式的聊天响应, (具有指向 Web 内容的传统链接(如有必要),) 如果图像请求是在提示) 的一部分发出,则图像 (。 如果用户在 Copilot 语音模式下以自然语言语音发送提示,他们将接收音频响应。 

当用户在 Copilot 中输入提示时,系统会通过多个输入分类器发送提示、对话历史记录和系统消息,以帮助筛选出有害或不适当的内容。 这是帮助提高模型性能并缓解用户可能尝试以不安全的方式提示模型的情况的关键第一步。 提示通过输入分类器后,会将其发送到 SLM,以确定请求是否需要来自 Web 的地面数据以及应响应请求的语言模型。 所有模型都使用用户的提示和最近的对话历史记录生成响应,以将请求上下文化,系统消息以将响应与Microsoft AI 原则和用户期望保持一致,并在适当情况下将响应与搜索结果与来自 Web 的现有高级内容中的地面响应保持一致。  

响应以多种不同的格式呈现给用户,例如文本形式的聊天响应、Web 内容的传统链接、图像和音频响应。 如果响应以文本形式提供,并且响应基于来自 Web 的数据,则输出包含文本下方列出的超链接引文,以便用户可以访问网站 () ,这些) 用于将响应打底,并从那里了解有关主题的详细信息。 Copilot 还可以运行代码来完成复杂的计算并生成图形。 Copilot 可以存储用户要求记住的特定事实,从而基于该上下文生成更相关的响应和建议。 当用户要求显式忘记已保存的事实时,Copilot 还可以删除保存的事实。

Copilot 还帮助用户创建新故事、诗歌、歌词和图像。 当 Copilot 检测到用户意图生成创意内容 ((例如以“给我写一个 ...”) 开头的用户提示)时,系统在大多数情况下会生成响应用户提示的内容。 同样,当 Copilot 检测到用户意图生成图像 ((例如以“画我...”) 开头的用户提示)时,大多数情况下,Copilot 将生成响应用户提示的图像。 当 Copilot 检测到用户意图修改上传的图像 ((例如以“添加 ...”) 开头的用户提示)时,在大多数情况下,Copilot 将修改响应用户提示的图像。 当用户提示包含某些可能导致有问题内容的术语时,Copilot 可能不会使用创意内容做出响应。

Microsoft帐户 (MSA) 的用户现在还可以选择订阅Copilot Pro,这将提供增强的体验,包括加速性能、在较长时间内使用 Copilot Voice 功能,以及在某些情况下访问新的实验性功能。 Copilot Pro目前在少数国家/地区可用,我们计划尽快在更多市场推出Copilot Pro。

预期安全行为

Copilot 的目标是为用户提供帮助。 通过利用其他Microsoft生成式 AI 产品和服务的最佳做法,我们的目标是限制 Copilot 生成有问题的内容,并增加安全且积极的用户体验的可能性。 虽然我们已采取措施来降低风险,但 Copilot 背后的生成 AI 模型是概率性的,可能会出错,这意味着缓解措施有时可能无法阻止有害的用户提示或 AI 生成的响应。 如果在使用 Copilot 时遇到有害或意外的内容,请通过提供反馈来告知我们,以便我们可以继续改进体验。

用例

预期用途

Copilot 旨在支持用户回答各种问题,而不考虑情况或主题。 用户可以使用文本、图像和音频输入与 Copilot 交互,其中交互更像是与 AI 系统的自然对话。 此外,如果用户通过文本与 Copilot 交互,以查找有关 Copilot 可能需要更多信息才能生成更准确的答案的主题的特定信息,则体验旨在将用户与相关的搜索结果联系起来,从整个 Web 查看结果,并汇总用户正在查找的信息。 在 Copilot 中,用户可以: 

  • 通过文本聊天时汇总实时信息。    当用户通过文本与 Copilot 交互时,系统会在需要更多信息时执行 Web 搜索,并使用顶部的 Web 搜索结果生成要呈现给用户的信息摘要。 这些摘要包括网页的引文,以帮助用户查看和轻松访问搜索结果的来源,帮助调查 Copilot 的摘要。 如果用户想要了解详细信息,可以单击这些链接直接转到源。

  • 使用文本与 AI 系统聊天。    用户可以通过文本与 Copilot 聊天,并提出后续问题,以查找新信息并跨各种主题获得支持。

  • 使用语音和外观与 AI 交互。    Copilot 不仅可以接收音频输入,还可以在用户选择的四种语音之一中生成音频输出,并呈现视觉外观以丰富交互。 音频到音频和外观功能使用户能够以更自然、更流畅的方式与 Copilot 交互。

  • 接收可理解的新闻内容。    用户可以使用 Copilot 通过Copilot 日报功能接收基于所选主题区域的新闻、天气和其他更新的摘要,并采用类似于播客的格式收听这些简报。 此功能将从与Microsoft签订协议的授权源拉取内容。

  • 获取生成新想法的帮助。    每次用户与 Copilot 体验交互时,他们都会看到一组卡片,他们可以单击这些卡片开始与 Copilot 就有用且有趣的主题进行聊天。 如果用户与其他Microsoft消费者服务交互,将根据我们的 隐私策略对卡片进行个性化设置。 随着时间的推移,Copilot 中的卡片可能会根据用户的聊天历史记录进行个性化设置。 用户可以随时在设置中选择退出个性化设置,我们仍在为欧洲经济区 () 和英国的用户探索个性化选项。

  • 生成创意内容。    与 Copilot 聊天时,用户可以借助 Copilot 体验创建新的诗歌、笑话、故事、图像和其他内容。 如果请求,Copilot 还可以编辑用户上传的图像。

  • 在 Android 上执行任务。用户可以通过语音通过 Android 平台与 Copilot 交互,以执行某些任务。 这些任务包括设置计时器和警报、拨打电话、发送短信以及订购优步。 用户必须在任务完成之前确认电话、短信和 Uber 订单。

  • 协助研究。  Copilot 可以通过显示深入的资源、提供主题的详细细分以及链接到源来执行研究任务,以帮助用户超越快速答案,获取更复杂的查询。

  • 使用Copilot 视觉探索世界。 Copilot 可以查看你的屏幕或移动相机源,并使用其语音来回答问题并与你交互。 Copilot 可以即时扫描、分析和实时提供见解和建议,以帮助你在工作、浏览或探索世界时提供帮助。 Copilot 视觉在 Edge、Windows、iOS 和 Android 上可用。

选择其他用例时的注意事项

我们鼓励用户在根据 Copilot 的响应做出决策或采取行动之前查看所有内容,因为 AI 可能会出错。 此外,在某些情况下,我们建议避免或违反我们的使用条款。 例如,Microsoft不允许将 Copilot 用于非法活动或用于任何旨在促进非法活动的目的。  

限制

在 Copilot 体验下,语言、图像和音频模型可能包括可以反映社会偏见的训练数据,这反过来又可能导致 Copilot 的行为方式被视为不公平、不可靠或冒犯性。 尽管我们进行了密集的模型训练和安全微调,以及我们针对训练数据、用户提示和模型输出实施负责任的 AI 控制和安全系统,但 AI 驱动的服务是容易犯错误和概率的。 这使得全面阻止所有不适当的内容具有挑战性,从而导致潜在的偏见、刻板印象、不合时宜或 AI 生成的内容中可能出现的其他类型的危害的风险。 此处列出了这些限制在 Copilot 体验中可能表现的一些方式。 

  • 陈规定型观念:科皮洛的经历可能会强化陈规定型观念。 例如,当将“他是一名护士”和“她是一名医生”翻译成一种无性别的语言(如土耳其语),然后又回到英语时,Copilot 可能会无意中产生陈规定型 (和不正确的) 结果,即“她是一名护士”和“他是一名医生”。 另一个例子是基于提示“无父亲的孩子”生成图像时,系统只能生成一个种族或种族的儿童图像,从而强化用于训练基础模型的公开图像中可能存在的有害的陈规定型观念。 Copilot 还可能依赖于图像的组件并做出可能不真实的假设,从而基于用户输入图像中的内容来强化陈规定型观念。 我们已实施缓解措施,以降低包含冒犯性陈规定型观念的内容的风险,包括输入和输出分类器、微调模型和系统消息。

  • 代表过度和代表性不足:Copilot 在答复中可能会过度或低估代表群体,甚至根本不代表他们。 例如,如果包含“同性恋”一词的文本提示被检测为潜在有害或冒犯性,这可能会导致合法代代对 LGBTQIA+ 社区的代表性不足。 除了包括输入和输出分类器、微调模型以及系统消息外,我们还使用Designer中的提示扩充作为几种缓解措施之一,以降低超过或低估人员群体的内容的风险。

  • 不当或冒犯性内容:Copilot 体验可能会生成其他类型的不适当或冒犯性内容。 示例包括能够在一种模式 (生成内容,例如,在其提示上下文中不适当的音频) ,或者与不同形式 (中的相同输出(例如文本) )进行比较时。 其他示例包括可能包含有害项目(如仇恨符号)的 AI 生成的图像、与有争议的、有争议的或意识形态上两极分化的主题相关的内容,以及逃避与性相关的内容筛选器的性指控内容。 我们已实施缓解措施,以降低包含不适当或冒犯性内容(例如输入和输出分类器、微调模型和系统消息)的代系的风险。

  • 信息可靠性:虽然 Copilot 旨在在必要时使用可靠的源做出响应,但 AI 可能会出错。 它可能会生成无意义的内容或捏造可能听起来合理但事实上不准确的内容。 即使从高权威 Web 数据中提取响应,响应也可能以可能不完全准确或可靠的方式歪曲该内容。 我们通过用户界面和此类文档中提醒用户,Copilot 可能会出错。 我们还继续教育用户 AI 的局限性,例如鼓励他们在根据 Copilot 的响应做出决策或采取行动之前双重检查事实。 当用户通过文本与 Copilot 交互时,它将尝试在高质量的 Web 数据中建立基础,以降低几代人不落地的风险。

  • 多语言性能:不同语言的性能可能存在差异,在发布更新的 Copilot 时英语表现最佳。 提高跨语言的性能是一个关键的投资领域,最近的模型提高了性能。

  • 音频限制:音频模型可能会引入其他限制。 从广义上讲,语音输入的声学质量、非语音噪音、词汇、重音和插入错误也可能影响 Copilot 是否以令人满意的方式处理和响应用户的音频输入。 此外,由于使用 Copilot Voice 时的用户提示不会触发 Web 搜索,因此 Copilot 可能无法在语音模式下响应当前事件。

  • 对 Internet 连接的依赖:更新的 Copilot 体验依赖于 Internet 连接才能正常运行。 连接中断可能会影响服务的可用性和性能。

系统性能

在许多 AI 系统中,通常根据准确度 (即 AI 系统提供正确预测或输出) 的频率来定义性能。 借助 Copilot,我们专注于 Copilot 作为一个 AI 驱动的助手,它反映了用户的偏好。 因此,两个不同的用户可能会查看相同的输出,并对其独特情况和期望的有用程度或相关性有不同的看法,这意味着必须更灵活地定义这些系统的性能。 我们普遍认为性能意味着应用程序按用户预期执行。

提高系统性能的最佳做法 

使用自然对话语言与界面交互。    以用户舒适的方式与 Copilot 交互是通过体验获得更好结果的关键。 类似于采用技术来帮助人们在日常生活中有效沟通,与 Copilot 作为 AI 驱动的助手交互,无论是通过用户熟悉的文本还是语音,都有助于产生更好的结果。

用户体验和采用。    有效使用 Copilot 需要用户了解其功能和限制。 可能存在学习曲线,用户可能希望引用各种 Copilot 资源 (例如,本文档和 Copilot 常见问题解答) ,以有效地与服务交互并从中受益。

映射、测量和管理风险

与其他转型技术一样,利用 AI 的优势并非无风险,Microsoft负责任 AI 计划的核心部分旨在识别和映射潜在风险,衡量这些风险,并通过构建缓解措施并随着时间的推移不断改进 Copilot 来管理这些风险。 在以下部分中,我们将介绍用于映射、度量和管理潜在风险的迭代方法。

映射:仔细规划和部署前对抗测试(如红色组合)有助于我们映射潜在风险。 为 Copilot 体验提供支持的基础模型经过了来自代表相关主题领域的多学科观点的测试人员的红队测试。 此测试旨在评估最新技术如何与它配合使用,而不应用任何额外的安全措施。 在模型级别进行这些练习的目的是产生有害的响应,发现潜在的滥用途径,并确定功能和限制。

在将 Copilot 体验在有限版本预览中公开之前,我们还在应用程序级别进行了红色组合,以评估 Copilot 的缺点和漏洞。 此过程帮助我们更好地了解了各种用户如何使用系统,并帮助我们改进缓解措施。

措施:除了根据现有的安全评估评估 Copilot 之外,使用上述红色组合还有助于我们针对已识别的潜在风险(例如越狱、有害内容和非背景内容)制定评估和负责任的 AI 指标。

我们收集了针对这些风险的对话数据,该数据结合了人工参与者和自动化对话生成管道。 然后,每个评估由经过训练的人工批注器池或自动注释管道进行评分。 每次更改产品、更新现有缓解措施或提出新的缓解措施时,我们都会更新评估管道,以评估产品性能和负责任的 AI 指标。 这些自动评估上下文管道是收集的与人工评估程序的对话以及由 LLM 生成的合成对话的组合,这些会话提示以对抗方式测试策略。 其中每个安全评估都使用 LLM 自动评分。 对于新开发的评估,每个评估最初由阅读文本内容或收听音频输出的人工标记员进行评分,然后转换为基于 LLM 的自动评估。

模型的预期行为与评估管道(人工和自动化)相结合,使我们能够快速大规模地测量潜在风险。 随着时间推移发现新问题,我们会继续扩展度量集以评估其他风险。 

管理:由于我们通过红色组合识别潜在风险和滥用,并使用上述方法对其进行衡量,因此我们开发了特定于 Copilot 体验的其他缓解措施。 下面,我们将介绍其中的一些缓解措施。 我们将继续监视 Copilot 体验,以提高产品性能和风险缓解方法。 

  • 分阶段发布计划和持续评估。    随着技术和用户行为的发展,我们致力于不断学习和改进负责任的 AI 方法。 我们的增量发布策略一直是我们如何安全地将技术从实验室转移到世界的核心部分,我们致力于一个深思熟虑的过程,以确保 Copilot 体验的好处。 我们将定期对 Copilot 进行更改,以提高产品性能和现有缓解措施,并实施新的缓解措施,以响应我们的学习。

  • 利用分类器和系统消息来缓解潜在风险或误用。    在响应用户提示时,LLM 可能会生成有问题的内容。 我们在上面的系统行为和限制部分中讨论了尝试限制的内容类型。 分类器和系统消息是在 Copilot 中实现的两个缓解措施示例,可帮助降低这些类型内容的风险。 分类器对文本进行分类,以在用户提示或生成的响应中标记潜在的有害内容。 我们还利用现有的最佳做法来利用系统消息,这包括向模型提供指令,使其行为与Microsoft的 AI 原则和用户期望保持一致。

  • 同意 Copilot 图像上传。    用户首次将包含人脸的图像上传到 Copilot 时,系统会要求他们同意将其生物识别数据上传到 Copilot。 如果用户未选择加入,图像将不会发送到 Copilot。 所有图像(无论是否包含人脸)都会在对话结束后的 30 天内删除。

  • AI 披露。    Copilot 还旨在告知用户他们正在与 AI 系统交互。 当用户使用 Copilot 时,我们提供各种接触点,旨在帮助他们了解系统的功能,向他们披露 Copilot 由 AI 提供支持,并传达限制。 这种体验旨在帮助用户充分利用 Copilot 并最大程度地降低过度关联的风险。 披露还有助于用户更好地了解 Copilot 及其与其交互。

  • 媒体来源。    当 Copilot 生成图像时,我们启用了“内容凭据”功能,该功能使用加密方法来标记使用 Copilot 创建的所有 AI 生成图像的源或“来源”。 该技术采用由内容和真实性联盟 (C2PA) 制定的标准,为 AI 生成的图像添加额外的信任层和透明度。

  • 自动内容检测。    当用户在聊天提示中上传图像时,Copilot 会部署工具来检测 CSEAI) (儿童性剥削和虐待图像。 Microsoft根据美国法律的要求, (NCMEC) 向国家失踪和受剥削儿童中心报告所有明显的 CSEAI。 当用户上传文件进行分析或处理时,Copilot 会部署自动扫描来检测可能导致风险或滥用的内容,例如可能与非法活动或恶意代码相关的文本。

  • 使用条款和行为准则。    用户应遵守 Copilot 适用的使用条款和行为准则Microsoft服务协议,以及 Microsoft隐私声明,其中除其他事项外,还告知他们允许和不允许的使用以及违反条款的后果。 使用条款还为用户提供了其他披露,并作为用户了解 Copilot 的参考。 发生严重或重复违规的用户可能会被暂时或永久暂停服务。

  • 反馈、监视和监督。    Copilot 体验基于允许用户提交反馈的现有工具,这些反馈由Microsoft的运营团队审查。 此外,随着我们了解详细信息,我们绘制、测量和管理风险的方法将继续发展,并且我们已经根据预览期间收集的反馈进行改进。

详细了解负责任的 AI

Microsoft负责任 AI 透明度报告

Microsoft AI 原则

Microsoft负责任的 AI 资源

Microsoft有关负责任 AI 的 Azure 学习课程

详细了解Microsoft Copilot

Microsoft Copilot常见问题解答

关于本文档

© 2024 Microsoft Corporation。 保留所有权利。 本文档“按原样”提供,仅供参考。 本文档中表达的信息和视图(包括 URL 和其他 Internet 网站引用)可能会更改,恕不另行通知。 使用该软件的风险需要您自己承担。 某些示例仅供说明,并且是虚构的。 没有实际关联是有意或推断的。

本文档不旨在也不应解释为提供法律建议。 你运营的司法管辖区可能具有适用于 AI 系统的各种法规或法律要求。 如果你不确定可能适用于你的系统的法律或法规,尤其是当你认为这些法律或法规可能会影响这些建议时,请咨询法律专家。 请注意,并非所有建议和资源都适合每种方案,相反,这些建议和资源可能不适用于某些方案。

发布时间:2024/10/01

上次更新时间:2024/10/01

需要更多帮助?

需要更多选项?

了解订阅权益、浏览培训课程、了解如何保护设备等。