AI 对话 — 透明度说明
AI 对话 — 透明度说明
合乎法律、合乎道德和负责任地使用人工智能 (AI) 是 Anthology 的首要任务。因此,我们制定并实施了 Trustworthy AI 计划。您可以在我们的信任中心找到有关我们的计划和 Trustworthy AI 一般方法的信息。您可以在我们的生成式AI功能列表中找到Anthology解决方案的概览。
作为我们 Trustworthy AI 原则的一部分,我们致力于透明度、可解释性和问责制。本页面旨在提供必要的透明度和可解释性,以帮助我们的客户实施 AI 对话。我们建议管理员在为机构激活 AI 对话的功能之前,仔细阅读此页面并确保教师了解以下注意事项和建议。
如何联系我们:
如果对于 Trustworthy AI 的一般方法或如何使本页面对客户更有帮助有任何疑问或反馈,请发送电子邮件至 trustworthy-ai@Anthology.com
如对 AI 对话的功能或输出有疑问或反馈,请提交客户支持工单。
最后更新:2024年11月1日
人工智能辅助功能
AI 对话
AI 对话专门设计为一种新的互动式活动,供学生积极参与。教师可以在其课程中创建 AI 对话,概述主题和 AI 角色,并能够选择学生要参与的对话类型。在AI对话功能中,教师可以选择两种选项:苏格拉底式提问,AI人格通过持续提问鼓励学生进行批判性思考;或角色扮演,让学生与AI人格一起演绎情景。
苏格拉底式质疑
这是一种引导式提问活动或苏格拉底式练习。AI 角色不会确认或拒绝任何学生的回答,但会通过一系列问题与学生互动。在对话结束时,学生对活动进行反思,突出他们在学习中的不足或优势,或者指出 AI 机器人是否表现出偏见、幻觉或不准确。提交后,教师将收到对话和反思的文字记录,使互动完全透明。这是一种很好的方式,可以在没有单独一对一交流的情况下,就课程主题进行发人深省的对话,而对于大型或更复杂的课程来说,一对一交流可能比较困难。
AI Conversation 为教师提供了利用生成式 AI 生成 AI 对话角色图像的能力。
这些功能受 Azure OpenAI Service 的限制和可用性的约束,并且可能会发生变化。有关详细信息,请查看相关发行说明。
角色扮演
通过角色扮演功能,教师可以为 AI 角色和学生定义特定角色,从而为学生设置模拟对话。此交互式选项使学生可以在现实场景中练习沟通技巧,并提供主动学习机会,从而增强学习和培训体验。通过可定制的AI人格特质和情境提示,角色扮演功能促进了引人入胜且动态的交流,丰富了整体学习过程,并鼓励批判性思维。
教师可以通过为 AI 角色分配名称和图像来自定义该角色。他们还可以定义 AI 角色的个性特点,并选择其响应的复杂性。角色扮演选项中分配给AI人格的人格特质塑造了其反应和互动。
请注意:教师应仔细选择个性特点并预览模拟对话,因为个性特点会显著影响对话的语气和内容。例如,如果教师将 AI 角色设置为温暖和善解人意,则 AI 角色将根据这些特点进行响应。如果教师将 AI 角色设置为有争议或有偏见,则 AI 角色的输出很可能会有争议或有偏见。AI 角色也不会总是质疑学生有争议、有偏见或危险的想法。
作为此功能测试的一部分,Anthology 审查并讨论了这些输出,以确定是否应限制该功能以避免任何有偏见或不适当的输出。我们的结论是,总的来说,机构和教师应该有学术自由,让学生参与可能有争议或偏见的模拟对话。同时,我们知道 AI 角色应该能够生成的输出是有限的。因此,教师对 AI 对话的输出以及学生将通过角色扮演功能遇到的对话最终负责。在我们的测试中,OpenAI、Microsoft 和 Anthology 实施的现有防护阻止了任何非法或其他不符合我们 Trustworthy AI 标准的输出。我们将继续监控此功能以及任何相关的客户反馈,以确保我们可以对此功能进行必要的更改,以满足我们的 Trustworthy AI 标准。
AI 对话功能受 Azure OpenAI Service 的限制和可用性的约束,并且可能会发生变化。有关详细信息,请查看相关发行说明。
关键事实
问题 | 答案 |
|---|---|
哪些功能使用 AI 系统? | 为该人格生成的AI图像(如上所述) AI 对话功能(如上所述)。 |
这是第三方支持的 AI 系统吗? | 是的 - AI 对话和 AI 生成的图像由 Microsoft 的 Azure OpenAI Service 提供支持。 |
AI 系统是如何工作的? | AI 对话利用 Microsoft 的 Azure OpenAI Service 自动生成输出。这通过使用教师在苏格拉底式或角色扮演选项中提供的信息,如主题、人工智能人格、性格特征和复杂度,以及我们的提示来促进回答来实现。 有关 Azure OpenAI Service 和底层 OpenAI GPT 大型语言模型具体工作方式的说明,请参阅 Microsoft 透明度说明的简介部分以及其中提供的链接。 |
AI 系统托管在哪里? | Anthology 目前使用多个全局 Azure OpenAI Service 实例。主实例托管在美国,但有时我们可能会利用其他位置(如加拿大、英国或法国)的资源,为我们的客户提供 Azure OpenAI Service 的最佳可用性选项。 Anthology 会将用于输入的所有客户课程数据和教师输入以及 AI 对话生成的所有输出存储在客户的现有 Blackboard 数据库中。 |
这是一个可选功能吗? | 是。管理员需要在 Blackboard 管理控制台中激活 AI 对话。AI 对话的设置位于 Building Block 类别中。选择 AI 对话和 Unsplash。管理员可以分别激活或停用每个功能。管理员还应根据需要为课程角色(如教师角色)分配“使用 AI Design Assistant”权限。 |
如何训练 AI 系统? | Anthology 不参与为 AI 对话功能提供支持的大型语言模型训练。这些模型由 OpenAI/Microsoft 训练,它们是为 AI 对话功能提供支持的 Azure OpenAI Service 的一部分。Microsoft 在 Microsoft 的透明度说明的“简介”部分以及其中提供的链接中提供了有关如何训练大型语言模型的信息。 Anthology 不会使用我们自己或客户的数据进一步微调 Azure OpenAI Service。 |
客户数据是否被用于(重新)训练AI系统? | 不。Microsoft 在与 Anthology 签订的 Azure OpenAI 条款中承诺,不会将 Azure OpenAI 的任何输入或输出用于大型语言模型的(再)训练。有关 Azure OpenAI Service 的数据、隐私和安全性,Microsoft 文档中也做出了相同的承诺。 |
在配置 AI 系统时,Anthology 如何使用个人信息? | 在根据适用法律获得合同许可的情况下,Anthology 仅将所收集的与 AI 对话相关的信息用于提供、维护和支持 AI 对话。您可以在我们的信任中心找到更多有关 Anthology 数据隐私保护方法的信息。 |
如果是第三方支持的 AI 系统,第三方将如何使用个人信息? | 对于 Azure OpenAI Service,只向 Microsoft 提供了有限的课程信息。这通常不应包括个人信息(除非个人信息包含在主题、AI 角色或个性字段中,或者包含在学生对 AI 机器人的问题和回答中)。此外,教师选择包含在提示中的任何信息都可访问。 Microsoft 不会使用任何 Anthology 数据或其可访问的 Anthology 客户数据(作为 Azure OpenAI Serivce 一部分)来改进 OpenAI 模型、改进其自身或第三方产品服务,也不会自动改进 Azure OpenAI 模型供 Anthology 在 Anthology 资源中使用。模型是无状态的。Microsoft 会审查提示和输出以进行内容筛选。提示和输出最多只能存储30天。 有关 Azure OpenAI Service 的数据隐私惯例的更多信息,请参阅 Microsoft 文档 Azure OpenAI Service 的数据、隐私和安全。 |
AI 系统的设计中是否考虑了无障碍访问? | 是的,我们的无障碍访问工程师与产品团队合作,审查设计,传达重要的无障碍访问注意事项,并专门测试新的无障碍功能。我们将继续将无障碍访问视为我们 Trustworthy AI 方法的一个组成部分。 |
适用于机构的注意事项和建议
预期用例
AI 对话仅用于支持上面列出的功能。这些功能旨在提供给并面向客户的教师和学生,旨在通过AI支持的活动提升学生的学习效果。
超出范围的使用场景
由于 AI 对话由 Microsoft 提供支持,该服务具有非常广泛的用例,因此可以使用 AI 对话中的提示功能来请求超出预期功能的输出。我们强烈建议客户不要将 AI 对话用于超出其预期功能范围的任何目的。这样做可能导致输出不适合或不兼容Blackboard环境,以及我们为减少不准确输出所采取的措施。
提示时尤其要注意以下几点:
仅使用旨在促进针对 AI 对话所分配主题开展的对话的提示。例如,回答AI机器人的问题和提示,或向AI机器人提问有关指定主题的问题。
不要使用提示来请求超出预期功能的输出。例如,不应使用提示请求输出的源或引用。在我们的测试中,我们确定此类输出存在准确性问题。
请注意,如果要求输出某特定人的风格或要求输出与受版权保护或商标保护的内容相似的内容,可能会导致输出内容有侵犯知识产权的风险。
敏感主题的建议输出可能有限。Azure OpenAI Service 已经过训练和实施,旨在最大程度地减少非法和有害内容。这包括内容过滤功能。当 AI 对话用于与敏感话题(如自残、暴力、仇恨或性)相关的课程时,这可能会导致有限的输出或错误信息。请勿使用违反贵机构与 Anthology 的协议条款或违反 Microsoft 的 Azure OpenAI Service 行为准则和 Microsoft 在线服务条款中的可接受使用政策的提示。
关于角色扮演:教师应仔细选择性格特质并预览模拟对话,因为性格特质对对话的语气和内容有显著影响。有关详细信息,请参阅上面的功能说明。
实践中的 Trustworthy AI 原则
Anthology 认为,合法、合乎道德和负责任地使用 AI 是一个关键的优先事项。本节介绍 Anthology 和 Microsoft 如何努力应对 AI 的法律、道德和负责任使用方面的可能风险,以及如何实施 Anthology Trustworthy AI 原则。它还建议我们的客户在实施自己的 AI 道德风险审查时可以采取的步骤。
透明度和可解释性
我们在 Blackboard 管理员控制台中明确指出,AI 对话是一项 AI 辅助功能。
在教师用户界面中,AI 对话功能明确标记为 AI 功能。教师可以预览对话并试用,然后才向学生开放。
除了本文档中关于AI对话和Azure OpenAI服务模型的工作原理外,Microsoft在其透明度说明中还提供了关于Azure OpenAI服务的更多信息。
我们鼓励客户对 AI 对话中 AI 的使用保持透明,并酌情向其指导教师、学生和其他利益相关者提供本文档和链接文档中的相关信息。
可靠性和准确性
我们在Blackboard管理员控制台中明确说明,AI对话是AI辅助的功能,可能产生不准确或不期望的输出,且应始终进行审核。
在用户界面、教师预览和使用 AI 对话的学生中,会被告知回答由 AI 生成,因此可能存在偏见或不准确。
角色扮演:教师应意识到,AI人格的性格特征会影响其与学生的反应和互动,并可能影响输出的可靠性和准确性(包括增加幻觉风险)。教师应仔细选择个性特点并预览对话。详情请参见功能描述。
正如 Azure OpenAI Service 透明度说明的限制部分所详述的,存在输出不准确(包括虚幻)的风险。虽然 AI 对话的特殊性质和我们的实施旨在最大限度地减少不准确性,但客户有责任审查输出的准确性、偏差和其他潜在问题。如果存在顾虑,则无需让学生使用 AI 对话。这是课程的可选功能,由教师自行决定。
如上所述,客户不应使用提示来要求超出预期用例的输出,特别是这可能导致不准确的输出(例如,要求提供参考文献或资料来源)。
作为AI对话沟通的一部分,客户应告知教师和学生这些潜在的局限性和风险。
教师可以利用生成式工作流程中的额外提示和设置,为AI对话提供更多上下文,从而提升对齐性和准确性。
客户可以通过本说明引言中列出的渠道向我们举报任何不准确的输出。
公平
大型语言模型本身就存在定型观念、代表性过高/过低以及其他形式有害偏见的风险。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
鉴于这些风险,我们精心选择了AI对话功能,以避免使用更易产生有害偏见或偏见影响更严重的场景。
角色扮演:教师应意识到,AI角色的性格特征会影响其与学生的反应和互动,可能导致产出包括刻板印象、过度或不足代表性以及其他有害偏见。教师应仔细选择个性特点并预览对话。详情请参见功能描述。
尽管如此,不能排除某些输出可能会受到有害偏见的影响。如上文“准确性”部分所述,教师被要求审查活动,有助于减少有害偏见。
作为关于AI对话的沟通一部分,客户应告知教师这一潜在限制。
客户可以使用此说明简介中列出的联系渠道,向我们报告任何可能有害的偏见。
隐私和安全
如上文“关键事实”部分所述,只有有限的个人信息用于 AI 对话,并且 Microsoft 可以访问这些信息。本节还描述了我们和 Microsoft 在使用任何个人信息方面的承诺。鉴于AI对话的性质,生成输出中的个人信息也预计会受到限制。
我们的 Blackboard SaaS 产品已获得 ISO 27001/27017/27018 和 ISO 27701 认证。这些认证包括由 Anthology 管理的与 AI 对话相关的个人信息。您可以在我们的信任中心找到更多有关 Anthology 数据隐私和保护方法的信息。
Microsoft 在有关 Azure OpenAI Service 的数据、隐私和安全性的文档中介绍了其数据隐私和安全做法和承诺。
尽管 Anthology 和 Microsoft 承诺保护数据隐私,不使用输入信息对模型进行再训练,但客户可能仍希望建议他们的教师和学生不要在提示或对话中包含任何个人信息或其他机密信息。
安全
大型语言模型本身存在输出可能不恰当、令人反感或不安全的风险。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
鉴于这些风险,我们精心选择了AI对话功能,以避免出现更易产生不安全输出或输出影响更大的情况。
角色扮演:教师应意识到,AI角色的性格特征会影响其与学生的反应和互动,可能导致输出被视为不当、冒犯或不安全。教师应仔细选择个性特点并预览对话。详情请参见功能描述。
尽管如此,不能排除部分 AI 对话输出可能不安全的情况。如上文“准确性”部分所述,需要教师检查输出,这可以进一步帮助降低不安全输出的风险。
作为关于AI对话沟通的一部分,客户应告知教师和学生这一潜在局限。
客户应使用此说明简介中列出的渠道向我们报告任何潜在的不安全输出。
人类掌控一切
为了将客户及其用户使用生成式 AI 的风险降至最低,我们有意让客户控制 AI 对话的功能。因此,AI 对话是一项选择加入功能。管理员必须激活 AI 对话,然后才能单独激活每个功能。它们还可以关闭整体或单个功能的AI对话。
AI 对话不包括任何可能对学生或其他个人产生法律或其他重大影响的自动决策。
我们鼓励客户在生产环境中激活 AI 对话之前,仔细阅读本文档,包括其中提供的信息链接,以确保他们了解 AI 对话和底层 Azure OpenAI Service 的功能和限制。
值对齐
大型语言模型本身就有风险,其输出结果可能有偏差、不恰当或与 Anthology 的价值观或我们的客户和学生的价值观不一致。Microsoft 在 Azure OpenAI Service 透明度说明的限制部分中介绍了这些风险。
此外,大型语言模型(如同所有服务于广泛目的的技术一样)存在被滥用用于不符合Anthology、客户或其终端用户价值观,乃至更广泛社会价值观的应用(例如用于犯罪活动或产生有害或其他不当输出)的风险。
考虑到这些风险,我们精心设计并实施了 AI 对话的功能,以最大限度地降低输出不当和错位的风险。我们还有意去掉了潜在的高风险功能。
作为内容过滤功能的一部分,Microsoft 还会对提示和输出进行审查,以防止滥用和有害内容生成。
知识产权
大型语言模型本身就存在侵犯知识产权的风险。对于大型语言模型的出现以及使用这些模型所产生的复杂问题,全球大多数知识产权法都没有充分预料到,也没有加以调整。因此,目前还没有明确的法律框架或指南来解决使用这些模型所产生的知识产权问题和风险。
最终,我们的客户有责任审查该 AI 对话生成的输出,以确定是否存在任何潜在的知识产权侵权行为。请注意,如果要求输出某特定人的风格或要求输出与受版权保护或商标保护的内容相似的内容,可能会导致输出的内容具有更高的侵权风险。
无障碍访问
我们在设计和开发 AI 对话时考虑到了无障碍访问,就像我们在 Blackboard 和其他产品中所做的那样。在发布 AI 对话之前,我们有针对性地改进了语义结构、导航、键盘控制、标签、自定义组件和图像工作流程等方面的无障碍访问。在未来利用 AI 时,我们将继续优先考虑无障碍访问。
责任性
Anthology 推出 Trustworthy AI 计划,旨在确保合法、合乎道德和负责任地使用人工智能。明确的内部问责制以及系统化的伦理人工智能审查或功能,如AI Conversation所提供的,是该项目的关键支柱。
为了提供 AI 对话,我们与 Microsoft 合作,利用 Azure OpenAI Service 为 AI 对话提供支持。Microsoft长期致力于人工智能的伦理使用。
客户应考虑实施内部政策、程序和对第三方 AI 应用的审查,以确保自己合法、合乎道德和负责任地使用 AI。提供此信息是为了支持我们的客户对 AI 对话的审查。
其他信息
Anthology的 Trustworthy AI 方法
Anthology的生成式AI功能列表
Microsoft 的负责任 AI 页面
Microsoft的 Transparency Note for Azure Vision 服务
Microsoft 有关 Azure Vision Service 的数据、隐私和安全性的页面