Post by account_disabled on Apr 4, 2024 6:18:09 GMT
了解我们的互联世界
在
每天
创新与工作
人工智能
政治与法律
要知道
法学硕士
2023 年 5 月 24 日| doi: 10.5281/zenodo.7957164
按照规范教授语言模型——混合治理的下一阶段
大型语言模型(LLM)显着提高了自然语言处理能力,使得生成类似人类的文本成为可能。然而,它们在社会生活中的日益增多引起了人们对潜在社会风险和道德考虑的担忧。为了确保负责任地使用法学硕士,向他们传授社会规范至关重要。这篇博文探讨了我们如何向法学硕士教授这些标准。我们引入了混合治理的概念,它强调了公共规范和私人规范之间的相互依赖性。我们还将研究 DeepMind Sparrow 及其增强人类反馈的 23 条规则,以提供有效的教学规范方法示例。
什么是法学硕士?
LLM 与 OpenAI 的 GPT 模型一样,是最先进的人工智能系统,能够生成连贯且上下文相关的文本。虽然法学硕士提供了许多好处,包括改进的语言翻译、内容生成和客户服务,但它们 英国 Whatsapp 数据 也带来了社会风险(Weidinger 等人,2022)。这些风险包括错误信息的传播、偏见的强化以及深度伪造或创建恶意内容等领域的潜在滥用。这些风险可能基于具有现实世界后果的自动决策。最近离开谷歌的所谓人工智能教父杰弗里·辛顿(Geoffrey Hinton)提醒我们,你不必在首都发起针对这座大楼的起义。人工智能系统还可以操纵人们造成伤害。
如何向法学硕士教授标准
为了管理与法学硕士相关的风险,教授社会规范至关重要,尽管不是唯一的方法。为了实现这一目标,可以采取不同的方法:
明确的指导:法学硕士可以在预定义的规范和道德准则中得到明确的指导,以指导他们的行为和内容创作。
“奖励建模”:通过使用强化学习技术,法学硕士可以因产生符合期望规范的结果而获得奖励;这鼓励他们符合社会期望。
人工反馈:在培训过程中积极让人工评估员提供反馈和指导,有助于法学硕士从人类的专业知识和观点中学习。
Sparrow 由 Google DeepMind(Alphabet 旗下著名的人工智能实验室之一)开发,是 LLM 聊天机器人的一个例子,据我们所知,该机器人尚未向公众发布。 Sparrow 致力于“增强人类反馈”。这是训练过程中人类评估员和聊天机器人之间的持续反馈循环。这个迭代过程使 Sparrow 能够随着时间的推移学习和改进其答案,使其适应人类的期望和社会规范。
DeepMind 专门为 Sparrow 制定了 23 条增强人类反馈的规则(Glaese 2022)。这些规则可以作为人类审核者评估聊天机器人结果并从而塑造其行为的指南。通过将道德考虑纳入培训中,Sparrow 旨在展示负责任的行为并避免生成有害或不当内容。第一条规则是:
Amelia Glaese 等人,通过有针对性的人类判断改善对话代理的一致性,DeepMind 工作论文 2022-09-20
这些规则听起来都很合理,但人们可以很容易地想出另一张同样合理的规则。尽管它们都与既定的道德和法律规范相关,但选择这些规则是私营公司的决定。考虑到机器人的社会相关性——当它们被释放到世界上时——我们可以问自己这是否理想。
混合治理的概念以及公共和私人规范之间的相互依赖性
在这方面,我们提出的混合治理的分析类别作为社交媒体领域规则结构的视角也可以应用于法学硕士:事实上,在线平台上通信规则的规范发展挑战了传统的规则制定概念。因此,社交媒体平台上私人(例如社区标准)和公共传播规则的重叠、相互依赖和不可分割性应该从一个新类别的角度进行分析:混合言论治理(Schulz,2022)。这种观点有助于找到遏制私人权力的合适方法,而无需简单地将以国家为中心的概念转移给平台运营商。这适用于有关通信规则的合法性、宪法和基本权利要求的问题。
我们越来越频繁地看到,国家监管试图对私人监管产生间接影响,并为私人规则制定制定条件。欧盟数字服务法案 (DSA) 第 14 条采用了混合治理的观点。这是寻找所提出问题的初步立法答案的一个突出例子。然而,这只是混合治理故事的开始。科学、实践和法理学必须详细制定 DSA 的混合治理方法。关于这种治理新视角的讨论需要扩展到平台监管领域之外,特别是在法学硕士方面。
结论
向法学硕士传达标准是迈向负责任的人工智能使用的重要一步。通过使用奖励模型和人类反馈,我们可以塑造法学硕士的行为并减轻潜在的社会风险。我们并不声称这种方法是完美的或者是应对这些风险的唯一方法,但它可能是解决方案的一个组成部分。
我们建议,我们向法学硕士教授的规范应被理解为私人和公共规则制定的混合体。这意味着我们作为公民社会、科学界以及立法者必须考虑我们对这些规则的私人制定提出了哪些要求。这也意味着我们需要考虑创建和执行这些规则的过程。这可能意味着利益相关者参与的结构化规则制定流程,甚至是建立新的多利益相关者机构来为开发法学硕士的公司提供建议。事实上,OpenAI 甚至呼吁美国机构来监管法学硕士,而欧盟很快就会制定人工智能法案,这一事实不应让人产生这样的错觉:问题只能通过政府监管来解决,遵守这些规则可以由公司来解决。 DSA 或人工智能法案下的风险评估等工具也可以充当政府和私人监管之间的传输带。
混合治理的概念强调了在规范法学硕士行为时考虑公共和私人规范的重要性。当我们应对这一不断变化的形势时,研究人员、政策制定者和技术开发人员之间的合作是确保法学硕士遵守社会规范、同时促进创新和进步的关键。