如今,人工智能(AI)发展势头迅猛,AI 代理(Agent)正逐渐成为业内的研究重点。
作为一个智能体,AI 代理能够感知环境,并通过自己的决策和行动来改变环境,进而通过学习和适应能力来提高自身性能。
那么,能够独立做出决策的 AI 代理,是否需要负法律责任?在法律中又该如何被定义?
近日,一项发表在权威科学期刊 Science 上的研究论文给出了一种可能的回答。
美国范德比尔特大学法学教授 Daniel Gervais 和斯坦福大学 CodeX 研究院、Nomos AI 创始人兼首席执行官 John Nay 联合发表论文表示:
AI 已经发展到可以作为一个拥有权利和义务的法律主体。因此,在问题变得复杂之前,我们需要制定一个“跨物种”的法律框架,将 AI 作为法律主体来对待。
另外,他们还强调了“零成员有限责任公司”的想法,以及训练一个大型语言模型(LLMs)来监管 AI 代理或是将 AI 系统转化为守法的系统。
相关研究论文以“Artificial intelligence and interspecific law”为题,已发表在 Science 上。
AI操控“零成员有限责任公司”
到目前为止,法律体系一直是单一的,它只允许人类来设计和使用它。在法律体系中,非人类法律主体(如动物)必须通过人类来实现它们的权利,而这些主体只是用来处理人类利益和义务的工具。
然而,将 AI 纳入法律体系与其说是为了界定和保护这些非人类主体的权利和责任,不如说是为了解决与之相关的人类利益和义务问题。
《布莱克法律词典》(Black’s Law Dictionary)将法人公司称为“artificial persons”。在美国,一些司法管辖区的法律并不总是明确要求法人公司的最高管理层由人类担任。
美国《统一有限责任公司法》(ULLCA)中提到的“零成员有限责任公司”似乎并不陌生。虽然该条款明确说明,没有成员将导致有限责任公司解散,但 ULLCA 并没有强制执行这一规定。
即使只有一个美国州允许“零成员有限责任公司”存在,根据所谓的“内部事务原则”,这一实体仍可在全国范围内开展业务。根据这一原则,法院将依据成立州的法律来制定管理法人实体内部事务的规则。
如果存在这样一个由 AI 操作的“零成员有限责任公司”,法律将有哪些选择呢?法律无法轻松地将法律后果附加到 AI 的自主行为上(尽管这里的“自主”可能会受到限制)。法律可能会将责任归咎于启动有限责任公司的人类,但这可能需要一个新的法律工具,因为通常情况下,人们不会对他们创建或控制的法人实体的行为承担责任。
此外,不排除 AI 本身可能会提出创建一家新的有限责任公司的申请。法院仍将拥有用于规范法人实体责任的一系列工具,包括赔偿、财产查封和解散等等。法院可以发布各种命令,如禁令,但 AI 将决定是否遵守这些命令。
此外,论文作者还提出了另一种可能:在所有司法管辖区中将“零成员有限责任公司”定为非法,但这将需要全球范围内的广泛立法努力,并可能与促进科技产业的发展相抵触。因此,出现“零成员有限责任公司”的现象应该催使法律体系适应自主 AI 代理的实现。
让 AI 以有限责任公司或其他法律主体的形式运营,具有明确定义的法律主体身份,会带来两个主要好处:首先,它将 AI 确立为可以在法律诉讼中追究赔偿损害的法律实体,为受损害的当事人提供了明确的法律诉求目标;其次,这为机器学习研究人员提供了更明晰的研究方向。
构建合法的“良知”AI
在当前的范式中,似乎有一种路径可以将遵循法律的行为嵌入到由 LLMs 驱动的 AI 代理中。例如,人们可以训练一个 LLMs,用于监视和/或影响主要的 AI 代理,并且可以用作奖励模型。
然而,需要明确的是,许多涉及人类代理的情况最终需要人类对该情境中的合法性做出裁定;这不会因为有 AI 代理而改变。
除了提出的规范性主张,对于未来几年即将出现的高级 AI,关键在于将其纳入我们的法律体系,以便我们可以监测其行为、分配责任、采取必要的防护措施,并引导 AI 研究朝着构建合法的人工“良知”的方向前进。
在数字智能迅猛发展的背景下,关注积极主动的自动犯罪预防至关重要。然而,鉴于不可避免的情况,当 AI 系统无法达到理想行为时,相关公司应当负责向能够向法院证明受到损害的个人支付赔偿金。为实现这一目标,可以拓展需要保持最低商业责任保险政策的范围。
跨物种法律的兴起是不可避免的,但很难预测我们将在这一法律光谱的哪一端结束。一方面,跨物种法律可能涉及修改公司法以适应部分受人类控制的公司实体的运作方式。另一方面,跨物种法律也可能意味着在日常与自主、智能实体的互动中,需要调整法律体系。