新闻中心 /News
东方法学特稿|江海洋:论人形机器人的刑事主体地位与归责
东方法学特稿|江海洋:论人形机器人的刑事主体地位与归责在人工智能的推动下,人形机器人的发展引人注目。人形机器人是机器人应用中最复杂的思维机器,不仅在智能水平方面,而且在美学方面也是如此。多数机器人专家和人工智能研究人员都认为,人形机器人将成为人工智能的主导和代表。工信部于2023年10月20日印发的《人形机器人创新发展指导意见》指出,到2025年,我国人形机器人创新体系将初步建立,“大脑、小脑、肢体”等一批关键技术取得突破,确保核心部组件安全有效供给。当前,以ChatGPT为代表的人工智能的出现,正是开启了通用人工智能(以下简称AGI)时代。同时,随着轻量化骨骼、高强度本体结构、高精度传感等技术的突破,搭载了AGI的机器人可以学习和完成各种各样的不同任务,这使其有望在现代社会中得到大规模使用,与普通人进行互动。可以预见,拥有AGI“大脑”并集成高端制造、新材料等先进技术的人形机器人,将深刻变革人类生产生活方式,其也将演变为社会的一个组成部分,人类需要与之共存并发展共生关系。
AGI人形机器人的出现在改变人类生产与生活方式的同时,也冲击着现有的法律体系。事实上,就刑法而言,在AGI时代未开启之前,对智能机器人的讨论就早已展开,当时争论的焦点主要集中在智能机器人是否应具有刑事主体资格。当然,在此种学术争论的背后也存在一种观点,认为关于人工智能的法学研究其实是一种“伪问题”,故没有必要讨论智能机器人是否具有刑事主体资格。实际上,此种根本否定智能机器人学术讨论必要性的观点,其背后的理由也与智能机器人刑事主体资格否定说的理由基本重合。然而,随着搭载着AGI的人形机器人的出现,鉴于AGI的技术特性以及人形机器人“人形”外观特征,对于机器人刑事主体资格等理论问题讨论的必要性,将进一步明晰。
以AGI人形机器人中最有市场前景的机器人、社交护理机器人为例,其中AGI人形机器人就存在多种适用场景是目前刑法理论无法回应的。举例而言,设计、生产、使用儿童机器人是否构成犯罪?组织人形机器人提供“性服务”,是否构成以及构成何种犯罪?再如,AGI人形社交机器人如果超出设计者的预见,发表煽动性言论或者教唆他人犯罪,此时是否需要刑法介入?最近国外就发生多起受社交机器人怂恿而实施犯罪的行为,如一名患有精神疾病的比利时男子受到基于开源模型LLM聊天机器人的怂恿与操纵后。再如,在R v. Jaswant Singh Chail案中,患有精神疾病的行为人就是受到聊天机器人的蛊惑,企图用弩箭谋杀英国女王。实际上,早在2016年,就发生过具有自主学习能力的聊天机器人Tay,经过网上无数匿名用户几个小时的“投喂答案”后,发表了种族主义与仇视女性言论的行为。对此,将如何归责?可以发现,对以上这些问题的回答都无法避开AGI人形机器人刑事主体地位的界定。为此,有必要立基于当今AGI时启的背景,结合AGI的技术特性以及人形机器人“人形”的潜在影响,对AGI人形机器人刑事主体地位的肯定与否定意见进行重新梳理分析。同时,如何对不同主体进行刑事归责也有必要根据不同情形对AGI人形机器人引起的法益侵害行为加以讨论。
人形机器人是指形态更接近人的机器人,较之以前的机器人,其最大的特点在于其拥有AGI作为其“大脑”以及类似人类身体的仿人机械臂、灵巧手和腿足等“机器肢”,可以更好在人类世界中活动。从物理维度上说,人形机器人由三个模块组成,分别是“肢体”“小脑”和“大脑”,其中“肢体”由灵巧手、传感器等一系列硬件组成,“小脑”负责运动控制,“大脑”则主导机器人的环境感知、推理决策和语言交互。但人形机器人除了外在形态独特之外,更重要的是其内核特点,也即当其搭载了AGI后具有的智能性和通用性。为此,若想真正深入了解AGI人形机器人相较于以前机器人有何不同,必须先了解作为其“大脑”的AGI。针对AGI的具体定义,存在不同的界定。当前主流观点认为,AGI应强调任务多元性,也即AGI系统是指具有多种预期用途和非预期用途,可应用于不同领域完成多种不同任务的人工智能系统。具体而言,可以发现AGI相较于以前的人工智能系统,主要存在以下不同特点:
从本质上看,任务是人工智能系统实现目标的基石。任务的创建可以集中于一种能力和领域,也可以贯穿多种能力和多个领域。任务往往是用来衡量和比较不同人工智能系统的重要指标。对此,一般可以将人工智能系统分为两类:固定任务系统与无固定任务系统。固定任务人工智能系统会创建特定的目标,只能完成训练好的任务。AGI的不同之处在于,其可以执行原先没有训练过的任务,这是由于输入数据的数量、模型结构等综合因素造成的。换言之,通过结合跨领域的知识图谱、因果推理、持续学习以及认知心理学、脑科学等技术,让AGI拥有类似人类的自主理解、自主分析、自主决策的能力,能够做到观其形、闻其声、断其言、辨其意,充分理解外部世界的信息输入。如GPT-4与Sora都实现了对多模态信息的认知处理,GPT-4能够处理超长文本、精通多种语言以及理解某张图片的幽默之处,而Sora基于patches的大规模训练,更是已经涌现出对基础物理规则的理解能力,能够通过文本描述直接生成视频。事实上,AGI基础模型最重要的是进行“训练”,模型训练的目的是获得“能力”,获得能力之后就可能被部署用来解决其并未被专门训练过的任务,且其输出的多样性和任务广度也会远超一般固定任务系统模型。
对于固定任务系统,任务列表的执行相对来说是分步骤的。例如,人脸识别系统在获得人脸的视觉信息后才能产生输出结果。若不提供图像,则该系统就无法发挥作用,且其识别其他物体的能力也受到训练的限制。相比之下,AGI具有“少量样本学习”或“零样本学习”能力,这意味着其即使在很少或者没有实例或指令的情况下,也能很好地完成某些任务。随着时间的推移,AGI不仅可以很容易地适应新的不同任务,而且可以在不需要太多或任何适应的情况下执行这些任务。实际上,这与人类接触新信息和学习适应新环境的方式类似。在理想的情况下,AGI能够在没有直接编程的情况下处理任务,只要为它提供可以帮助其解决任务的数据。在实践中,这种适应性通常是通过用任务描述的实例对AGI进行调节和引导,或通过修改或微调其参数来实现的。
AGI涌现(Emergence)能力指的是当模型达到一定的规模和复杂度时,它们开始展现出一些预料之外的行为或能力的现象。换言之,AGI具有发展新兴能力的潜力,可以没有经过专门训练的情况下获得某些能力,使其能够执行最初提供者没有预见的不同的任务。具有涌现功能的AGI系统,很多时候能在模型参数数量或训练计算量达到临界水平时表现出令人惊讶的新能力。即使模型经过训练,其创建者和用户也不一定了解它的所有能力,只有在提供特定类型的输入时才能发现某些能力领域。这就导致AGI与其他人工智能系统不同。截至2023年,有证据表明至少大型语言模型已经表现出新兴能力,新兴能力包括:理解多因果关系中的因果联系、检测逻辑谬误、理解寓言故事,以及为计算机程序生成代码。事实上,AGI的创作成果能力在各种专业和学术基准上的表现均达到甚至是超越“人类水平”,其经过足量常见任务的指令学习,能够胜任一些新的组合任务,其甚至可以将人类从未想象过的具有的任意两个学科的能力进行组合,比如利用李清照诗词的风格写代码注释。
机器人并非一个新兴事物,传统的工业机器人已经广泛应用于社会生活,但其弊端明显,通用性不足,仅仅能够执行单一的任务,实质更像是一种自动化设备。在这一点上,人形机器人无疑更接近我们对机器人的想象。人形机器人凭借其仿人形态,不仅可以适应人类社会多样的环境,完成多种独特任务,而且其类人的形状和外观也能够让其获得人类的更多信任与互动,使其可以更加紧密地融入人类社会。事实上,机器人的外观和行为表现之所以要近似人类,就是为了创造出与机器人交往就像与一个合作伙伴、一个能够回应我们行为的个体交往一样的印象。自20世纪70年代以来,机器人与人类之间交互的思考就一直存在,随着机器人越来越像人类,越来越能够“像人一样思考,像人一样行动”,其给人们所带来的情绪和移情价值越来越多,同时,拥有类似人类的身体、声音以及面孔也会导致人们将更多的道德责任归于机器人。
正如有学者所言,机器人伦理的重点不在确定机器人本身是否具有意识,而在于机器人在我们人类的意识中是如何出现的。换言之,是否赋予机器人社会主体性地位,是由其在人机互动中的外在表现所决定的。一般认为,在人类情绪沟通中有几种情感能力在发挥作用,主要是识别他人情感的能力、表达自身情感的能力等。而沟通不仅在于口语表述,也在于面部表情、眼神、身体姿势、手势和情感表露等方式的交流。对此,人形机器人相较于非人形机器人显然具有更强的沟通与移情能力,这是因为其可以使用自己的眼睛、嘴巴、耳朵和眉毛来表达各种情绪并作出相应的动作,也可以识别人类情绪。因此,根据哈贝马斯的社会交往理论,随着人机交互中机器主动适应人类,以及与人共情的良好表现,人机交互已经从工具行为变成了交往行为。鉴于社会实在性(social reality)在本质上是由社会交往构成的,面对能够准确把握、响应使用者说话意图的AGI,使用者往往会认为其已具备和人一样的思维能力和自我意识,从而将其看作聊天伙伴或者助手,赋予其主体地位。换言之,具有交互能力的AGI人形机器人不再是工具,而在一定程度上成为我们的新伙伴。研究表明,大多数人都将虚拟人物视为社会角色,由于人形机器人的化身和身体动作,这种社会角色投射往往会放大。在一项研究中,20名参与者在fMRI扫描仪中与计算机、功能性非拟人机器人、拟人机器人或人进行了互动。随着与人类相似度的增加,通常涉及心智理论的大脑中枢亮度越来越高,这表明人们将心理状态归咎于机器人,尤其是拟人化的机器人。
事实上,AGI人形机器人更具道德挑战性的用途正在不断开发或使用中,其中包括旨在满足人类性欲的机器人,以及可能形成的合(hybrids)或半机械人(cyborgs)。这些人形机器人凭借其人形的外观加之AGI的“大脑”将会深入地融入人类社会,引发社会关系与法律制度的变革,除了其作为侵害主体带来的刑事归责问题外,其作为受害者也会带来一系列争议。例如,若是搭载AGI的人形机器人具有对人类情感的感知和回应能力,那么,刑法就必须回应人类在与其发生关系时,是否需要通过程序设置获取其同意,其理由在于机器人越像人类,就越需要将法律和道德范畴扩展到其身上,如果放任未经同意的性行为被正常化,则法律界就有纵容“文化”之嫌。毕竟法律保护一系列实体和物体不是因为它们具有特定的可界定的用途,而是出于文化、美学和历史的原因,这些理由统称为“内在”(inherent)价值。
综上所述,由于AGI人形机器人具有AGI“大脑”以及“人形”两大特征,导致其与过去的机器人具有质的区别。一方面,鉴于AGI人形机器人的“人形”特征,从身体机能性来看,与碳基生命之间的差距已不再明显;另一方面,随着以ChatGPT、Sora为代表的AGI技术突破,导致AGI人形机器人已拥有不弱于人类的创造力,AGI将补足过去“类人”机体的终极缺失——有相当思维能力的大脑。这些都将导致AGI人形机器人能够发挥更多的社会功能,更加深入地介入社会关系中,站在旁观者的人类的视角,AGI人形机器人已经不再像传统工具一样是人类“自我身体的延伸”,而是拥有自主智能性的“它者”。
事实上,无论是与AGI人形机器人发生关系时是否需要通过同意程序,还是利用AGI人形机器人向不特定对象提供性服务是否会构成组织罪,抑或AGI人形社交机器人怂恿精神病人实施犯罪行为如何归责,这些问题本质上都与AGI人形机器人是否应被赋予刑事主体地位有关。在前AGI时代,否定说之所以认为智能机器人并不具有刑事主体地位,其主要理由是智能机器人不具有自主意识、智能机器人的刑事主体地位无法类比单位、智能机器人适用刑罚并无效果、智能机器人的刑事主体地位并无必要。然而,否定说的理由均存在可反驳之处。早在前AGI时代,就存在部分学者对赋予智能机器人刑事主体地位持肯定态度,随着AGI时代的开启,肯定说就更加具有合理性。
否定说往往基于人类中心论与本体论视角认为,智能机器人不是具有生命的自然人,不具有人类的自主意识,其生成的目的行为,与人类完全不同。实际上,从本体论视角出发,能否将AGI人形机器人纳入法律主体范围之内,这涉及法律意义上的主体到底需要具备什么样的本质要素。对此,不同的学者存在不同标准,例如索勒姆将“自己的思想”作为法律主体地位的本质要素,米斯吕姆则将灵魂、情感能力、自由意志、意向性等多种本体论属性作为法律主体的本质要素。
就刑法而言,往往将自由意志作为刑事法律主体地位的本质要素。自由意志一般指不受任何外界影响而决定做什么的能力,其与自主意识是一体两面的,只有拥有自主意识才会具有自由意志。鉴于AGI人形机器人具有适应能力、不固定任务完成能力、涌现能力等特性以及仿人外形,某种程度上其在本体论属性方面与人类差异逐渐模糊。具体而言,搭载AGI“大脑”的人形机器人借助于神经网络和模仿生物性大脑结构的电路,能同时在多个层面处理信息,并通过深度学习的拟设,无需人类的帮助就能对难题作出独立、适当地反应。同时,深度学习赋予AGI人形机器人的自主学习能力,远远超出设计者、开发者的预期,导致其行为不可预测性大增,人类对于其控制力不断弱化。特别是那些完全无监督的机器学习,表明AGI人形机器人拥有能力自主行事,即能在没有人类帮助的情况下,独立地对各种(可能是未知的)情况与问题作出适当的反应,其主体能力不再局限于特定领域或事务,而是对社会生活各领域均能胜任。这些事实都暗示着机器人具有自主性、主动性,已非纯受支配之客体。实际上,当前具有自主能力的AGI人形机器人不仅配备能够作出重大道德决定的算法,而且能够将其道德决定传达给人类,并进而在没有人类直接监督的情况下独立采取行动,如自动驾驶系统不可避免地会在某一时刻面临类似“电车难题”的道德抉择。因此,鉴于AGI人形机器人已经可以且必须作出道德决策,拥有与其训练者相似的道德知识,我们需要承认其应属于人类社会的成员。
值得注意的是,当自由意志的教条遭受21世纪初的脑科学研究冲击后,法理学只得退回到科尔劳什所代表的观点,也即“自由意志”只是个(必要的)假设。这是因为“自由意志”的来源很大程度上仅是一种对“个体自由”的主观感受,该理论的客观性和证明力都存在疑问。对此,部分持否定说的学者亦不否认,其承认自然人的自由意志是一种虚拟,其认为智能机器人之所以不能法律拟制,原因在于它缺乏人的自由意志拟制的社会基础。鉴于“自由意志”的不确定性,司法实践显然都尽可能地回避所有关于自由意志或者人类如何控制自身行为的问题。法庭要做的仅限于采用所谓否定描述的方式,将目光聚焦于那些可以排除意志支配的要素,如受到不可抗的胁迫,而那些基础性问题及其形而上学的内涵则往往被忽略。在处理机器人行为的问题时也必然会采用相同的方式,除非出现诸如不可抗附加要素,否则应当认为机器人有能力“实施行为”。进一步而言,对机器人是否具有可谴责性的判断亦是如此。“自由意志”作为罪责的重要因素,如果其自身仅仅是一个假设,那么就没有理由拒绝将这种假设扩展到机器人之上。其理由在于假设是基于特定目的给出的命题,它不一定是对“现实”的反映,若实践中存在这样的需求,完全可以考虑引入机器人“自由意志”的假设。
正如有学者所言,作为“生物物理事实”的自由意志与作为一种制度的刑法几乎没有关系。刑事责任并非基于生物物理上可证明的自由意志,而是基于作为社会事实的自由归属,这为机器人的刑事责任铺平了道路。若技术发展导致AGI人形机器人不仅是为人类进行简单的互动和服务,而且采用高度复杂的过程(不单纯被确定和编程的),那么人类体验到这种自主性后,赋予其相应的“能力”或“地位”就不再是问题。正如卢曼所指出的,没有社会系统,人就不可能出现和存在。法律人格和责任都是在“社会游戏”中建构而成的。在一个以规范为结构的社会中,法律人格必须具备哪些“能力”的问题也并非参照本体论可以回答,法律主体所需“能力”是一个特定社会在特定时间的规范过程。是否赋予AGI人形机器人法律人格,不在于其与人类的相似性,而在于人类的需要,若赋予机器人主体资格有助于人类社会向善发展,即可赋予其主体资格。实际上,否定说主张赋予单位刑事主体资格的实质原因是单位背后的个人,故无法将机器人与单位类比,并无道理。试想一种情形,一个生产零件的公司通过不断发展,获得了众多股东投资。随后,公司创始人和董事会退休,公司交由职业经理人管理。同时,该公司利用公司盈利资金买回自己在外的全部股票,从而成为“无所有者”,即没有人类所有者,公司完全拥有自己。此后,公司实现了生产完全自动化,不再需要任何工人,并将行政和管理任务完全交给AGI机器人。可以发现,该公司所有变化并没有挑战该无人公司的法人地位。故而,人并非公司的基本组成部分。
当然,社会对法律人格的赋予并非完全任意。刑法作为法律体系的一个子系统,与其他法律一样,也在社会中扮演着独特的角色,其通过对法律主体的归责与惩罚,维持着一种规范性期待。或者用克莱因费尔德的话来说:“当不法行为破坏社会结构时,刑法的任务就是重新缝合它。”要履行刑法的这一职能,就必须将行为归责于社会体系中的某个法律意义上的“人”,而将行为归责于某“人”的任务就是确定在何种情况下某“人”的行为破坏了规范的稳定性,以至于需要对规范进行修正或强化。换言之,只有当我们认为犯罪者在社会中有足够的能力质疑规范并辜负人们的规范期待时,我们才会对其进行惩罚。以公司为例,通过公司代表的行为,公司被视为可提供规范导向的实体,这导致我们对其抱有一定的规范期待,而这些期待可能会落空,此时公司已经对我们的日常生活和社会交往产生了显著影响,并因此成为社会系统中的法律主体。
鉴于刑事责任的内容和概念具有社会相对性,社会及其运作方式将决定AGI人形机器人的行为是否有可能破坏规范之稳定,以及其是否应被赋予刑事主体资格。法律规范的期待落空并不是因为个人的主观不法,而是因为客观不法行为的破坏角色,即没有达到制度赋予某个主体的角色期待。因此,决定性的因素将是我们赋予机器人什么样的角色,而不是机器人的实际个人能力博业体育官网。若AGI人形机器人对我们日常生活与工作的参与足以让我们将其认定为社会互动的参与者,则我们对其就不仅会产生认知上的期待,亦会产生规范上的期待,从而会将其法益侵害行为视为不遵守社会规范的表现。当AGI人形机器人的行为破坏了人们对社会规范的期待,则社会在一定情况下就必须通过刑法等工具来建立机制,以防止这种规范的不稳定,进而确保人们对规范期待的持续稳定。正如上述,随着AGI人形机器人对人类日常生活与社会交往的参与程度日益加深,足以让我们将其认定为社会互动的参与者。因此,需要赋予其刑事主体地位以承担责任。
否定说认为,与对人类的刑罚相比,对机器人实施刑罚不具有实际意义,如机器人无法感受的刑罚的恶害、痛苦。然而,刑罚的作用主要是由其作为对规范期待落空反应的象征性力量构成,而不是由其对受惩罚主体的实际影响构成。若是认为只有当刑罚对犯罪人产生实际影响时,刑事责任才有意义,那么目前的刑事法律制度就会因无法解决的经验性争论而陷入瘫痪,因为刑罚对犯罪人是否具有威慑作用,目前仍是犯罪学中一个极具争议性的话题。当然,也有观点认为,鉴于AGI人形机器人能够通过机器学习技术进行自我学习,其也能够通过学习类似案件的处理而受到威慑,这一点与人类并无不同。同时,亦有学者认为,对AGI人形机器人的直接惩罚能够传递给开发者、生产者或用户,剥夺其经济利益,进而对其产生一般威慑,并激励其尽量避免创造出无缘无故造成特别严重法益侵害的机器人。此外,机器学习的不透明性导致警方和监管机构等“局外人”需要机器人开发者、生产者等“局内人”的配合,如此方能发现机器人实施不当行为的真正原因。而鉴于对机器人追究刑事责任,一般会给所有内部人员造成的经济利益损失,这将有助于促使无过错的其他内部人更有动力配合调查不当行为的真正原因。
另一方面,刑法的一个重要特征是其谴责功能。作为一种对不法的回应,刑罚旨在通过构建一个回应来维护受害者的价值,该回应否认了行为对受害者的优越性。对AGI人形机器人的刑罚亦传达了一种对受害者所遭受伤害的谴责态度,向受害者传达了对这一不法行为的集体反对,可以使受害者内心产生一种满足感和平复感,为其愈合创伤铺平道路。有学者指出,对做错事的机器人进行惩罚报应,是让那些受到机器人伤害的人产生心理满足感所必需的。刑罚传达了官方谴责的信息,可以重申被AGI人形机器人损害受害者的利益、权利以及最终的价值。研究表明,人们会将机器人的行为归咎于机器人,而且随着机器人越来越拟人化,这种倾向也会越来越明显,进而导致支持惩罚人工智能的表达主义论点可能显得尤为有力。事实上,公司之所以应受到惩罚,很大原因就是刑法应该反映非专业人士的褒贬观念,即“民间道德”,否则刑法就有可能失去其合法性。将这种观点转换到AGI人形机器人,亦同样成立,这是因为AGI人形机器人具有天生的拟人化形象,人们会普遍倾向认为其应因其所做的不法行为而受到谴责,若是刑法不对其造成的法益侵害表示谴责,这可能会削弱人们对刑法合法性的认同。
机器学习使得AGI人形机器人可以自我进化,其涌现能力有可能使其实施超出人类预见的法益侵害行为。一般认为,若是对保益被侵害缺乏反应,没有人能对一个刑法上的结果负责,将损害社会成员规范秩序的信任,使得值得保护的法益变相失效,故而,对法益保护不应存在违反计划的规范漏洞。面对AGI人形机器人此种无法被生产者、开发者、使用者等主体预见的法益侵害行为,否定论者采取的路径多是将其还原为生产者、开发者、使用者的个人责任。
然而,此种还原论在实践与法律层面都难以实现:一方面,由于人形机器人AGI“大脑”的自主性、适应能力以及涌现能力等特性,可能很难将其法益侵害行为具体归因于具体的个人。同时,其法益侵害行为往往涉及的人数众多,也难以确定他们对机器人的设计作出了何种贡献,刑法调查很难展开。另一方面,即使现实中可以将AGI人形机器人法益侵害行为具体归因到一系列单独的人类行为,但若是刑法将之进一步归责到个人,则此种刑事政策也会对科技创新产生极大的负面影响。这是因为若允许将任何AGI人形机器人法益侵害行为还原为个人刑事责任,就需要将个人不当行为中非常微小的部分——难以察觉的新问题、细微的粗心大意、在时间和资源的优先排序上的失误、对群体思维缺乏足够的批判性等——定为刑事犯罪。然而,将所有此类微小过失的行为定为刑事犯罪,过度扩张抽象危险犯,甚至设置严格责任,将严重威胁到个人自由并抑制科技创新。因此,出于刑事政策的考虑,还原论必然是不可取的。
事实上,鉴于AGI人形机器人法益侵害行为并非单一主体可预先设定,且无法为人全面掌控的情形,较为合理的做法赋予AGI人形机器人法律主体地位。从立法技术而言,“法律主体地位标准的立法史表明,这是一个立法技术问题,是否赋予人工智能法律主体地位与立法者的决断相关。”与此同时,赋予AGI人形机器人法律主体地位有利于法律简化,从而大大降低归责的成本和复杂性,使受害方更容易索赔。这是因为与过失责任规则对因果关系和注意义务的要求相比,赋予AGI人形机器人法律主体地位可将行为的归责对象可直接确定为AGI人形机器人,且衡量注意义务的基准将更多地取决于技术水平,如可以通过认证标准来确定,这将极大降低证明因果关系的难度。
综上所述,在承认自由意志属于一种社会拟制的前提下,面对AGI人形机器人的高度自主性及其在社会系统中深度参与,为兼顾弥补责任漏洞与防止过度抑制科技创新,合理的选择是赋予AGI人形机器人相应的法律主体资格。当然,赋予AGI人形机器人法律人格,并不意味着将其视为人类。法律主体地位根据实体而变化,既可以是从属的也可以是独立的,与公司法律人格类似,某种程度上,AGI人形机器人的法律人格属于一种从属法律人格,但这种从属法律人格仍可包括积极的法律地位:可以是义务承担者,也可以是权利承担者。AGI人形机器人法律人格需要包含两个最重要的法律能力是过渡能力(缔结和建立法律上显著关系的能力)与责任能力(因民事过失或刑事犯罪被法律归责的能力)。需注意的是,赋予AGI人形机器人的权利与赋予人类的权利应区分开来,其可以主张的权利仅限于那些对其合法目标起作用的权利。同时,AGI人形机器人的责任也可以参照公司,限定为有限责任。此外,基于对AGI人形机器人本身缺乏资产会影响其对受害者赔偿或承担惩罚的担忧,一个合理的解决办法是可以通过国家强制执行最低资产要求赋予其资产,或者为其规定某种强制性责任保险。
AGI人形机器人正在逐渐成为我们日常生产生活的一部分,赋予其刑事主体地位后,面对其带来的新的、日益紧迫的刑法问题,必须对这些问题进行类型化区分后,再进行合理的刑事归责。
涉及AGI人形机器人刑法归责的类型大致主要存在间接正犯责任模式、过失责任模式以及AGI人形机器人直接责任模式。
此种情况是AGI人形机器人因被设计者、使用者等人类主体故意编程而实施犯罪。例如,众所周知的“杀人机器人”以及军用机器人等。在此种情况下,由于机器人的“大脑”完全由人类设置,并无自主决策的空间,若是人类此时利用机器人实施犯罪行为,则人类属于间接正犯之幕后操纵者,机器人则属于被支配操纵之工具人。以利用AGI散布煽动言论为例,鉴于AGI的内容生成不仅依赖于训练数据文本质量,也会基于用户输入的提示词,故而,幕后操纵者既可以是AGI人形机器人的设计者、生产者,也可以是使用者。根据现行刑法理论,机器人背后的人类显然要承担责任。
此种模式下,AGI人形机器人的设计者、生产者或用户并没有通过机器人实施任何犯罪的意图,但机器人在执行日常任务时实施了犯罪行为,若是设计者、生产者或用户对机器人造成的法益侵害具有预见、避免的可能性,则法益侵害风险的实现便可作为不容许的风险创设后果而归责于设计者、生产者或用户。值得注意的是,在承认AGI人形机器人法律主体地位的情况下,当设计者、生产者或用户未履行此注意义务而导致危害结果发生时,其行为与危害结果之间就具有间接因果关系,对其进行归责并不违反刑法的基本原理。具体而言,根据行为共同说,可将两者认定为共同犯罪。行为共同说主张,共犯通过共同实施“行为”来实施各自的犯罪,共犯是对自己的犯罪“行为”承担罪责,共犯者之间的罪名不必同一,共犯人之间也不必存在犯意联络。行为共同说既承认过失犯的共同正犯,也承认过失犯与故意犯的共同正犯。当然,除了根据现有共犯理论以解释的路径处理该问题,也可以在未来专门对此增设一个单独罪名,以应对可能存在的刑法漏洞。
鉴于研发过程中存在许多不同的参与者、AGI具有自主学习能力等因素,无论研发者如何训导,AGI人形机器人仍有可能实施不可预见的法益侵害行为。对此,采取严格责任或者过失责任对人类进行归责都不具有可行性:一方面,采取过失责任不仅可能会产生刑事责任漏洞,也有可能出现为了弥补责任漏洞而过分提高注意义务要求,进而导致妨碍科技创新的困境;另一方面,抛开严格责任与罪刑法定原则的冲突不谈,实际上,即使是严格责任,也与任何责任规则一样,只有在能够证明个人行为与结果之间的因果关系的情况下,才能发挥作用。而正如上述,因果关系的证明对于AGI人形机器人法益侵害行为而言往往难以实现。因此,在此种情况下,合理的方式是对AGI人形机器人进行直接刑事归责。
注意义务的确定是决定生产者、设计者、用户是否承担刑事责任的决定性因素。对此,注意义务的确定可以从价值偏好、标准选择、具体路径几个方面展开。
其一,就生产者、设计者、用户注意义务确定的价值偏好而言,存在偏重归责与偏重创新两种不同的观点。偏重归责的观点认为,鉴于机器学习型自主机器人的行为一般是无法预测的,所以可将之认定为是一种危险源,为了共同体生活的安全,若此种危险源出现在谁的社会支配领域中,谁就要对此负责。偏重创新的观点则认为,在AGI人形机器人的刑事责任认定问题上,需要维持科技创新与刑事归责之间的平衡,在考虑可容许风险的情况下找到平衡点,在某些情况下,给予生产者、设计者免责。将机器学习型自主机器人作为一个风险源,过度提高注意义务要求,显然与当今社会的科技创新发展相冲突,也不符合目前主流的刑法归责理论。同时,鉴于生产者、设计者与用户的社会经济地位、技术能力、经验等条件不同,生产者、设计者与用户的注意义务亦应存在差别。这是因为风险控制是因果关系、风险知识和改变因果行为能力的结果,在人形机器人AGI的风险控制方面,责任应越来越多地从用户转移到生产者、设计者。
其二,就生产者、设计者的注意义务标准选择而言,在刑法中,通常是参照“理想模型”加以确定的,即一个谨慎的生产者、设计者处于行为人的位置上会采取何种标准。在审查时首先可以以相关法律法规以及成文技术标准为指导。若是违反了相关法律法规以及技术标准,则可认为有强有力的指征表明存在注意义务违反。若是不存在相应的成文技术标准,则可参照一般的行业技术惯例进行判定。以当前的语言通用大模型为例,其“出炉”基本上要经历三个阶段:底座大模型的训练—指令微调—价值对齐。在这三个主要阶段,生产者、设计者都被赋予了相应的注意义务,其中有些是法律法规与技术标准赋予的,有些则是行业惯例赋予的。例如,为减少虚假、不当信息的生成,在语言模型预训练阶段,欧盟人工智能法第10条就详细规定了高风险人工智能提供者对于数据训练、验证及测试过程中的注意义务。对此,我国《生成式人工智能服务管理暂行办法》第7条、第8条亦有相应规定。故而,AGI研发者对训练数据集合的“毒性”应采取合理、有效措施识别、过滤、降低数据“毒性”。若是AGI研发者未采取当前行业可行的技术措施识别、过滤、降低数据“毒性”,则应认定其未履行相应的注意义务。同时,鉴于在预训练的过程中由于数据量过大往往难以完全把控模型的安全性和偏见,所以行业惯例一般要求在微调的过程中利用相对较小规模的数据进行再训练,以此来剔除算法偏见,保证模型安全性。此外,在价值对齐阶段,由于深度神经网络自身的黑盒特性和人类的价值观内容的抽象性等因素,AGI的目标要与人类的价值观、利益相对齐往往难以通过建立规则解决。因此,必然需要在模型训练过程中进行人为调控。若是研发者未落实上述义务,则显然属于未履行注意义务。
其三,就生产者、设计者、用户注意义务确定的具体路径而言,应采取一种基于风险的路径。欧盟人工智能法案将人工智能系统分为:(1)不可接受的风险;(2)高风险;(3)有限风险;(4)低风险或最小风险。在该金字塔中,最高级临界值表示人工智能系统具有不可接受的风险,应予以禁止,而最低级则表示潜在风险为零或可忽略不计,无需采取特别措施。值得注意的是,欧盟人工智能法案认为,AI系统风险水平取决于其所执行的功能以及使用该系统的具体目的和方式,然而,鉴于AGI完成不固定任务的认知能力、适应能力以及涌现能力,其功能或用途往往难以预测,故而,AGI的风险确定应借鉴GDPR中对“风险”进行原则的定性路径,并采取一种动态、全流程的视角。对此,刑法在确定生产者、设计者的注意义务时,可参考欧盟人工智能法案对人工智能系统几个风险等级的划分,以AGI人形机器人对公民基本权利与社会的侵害风险大小为基点,设定不同等级的注意义务。例如,对于不可接受的风险,如危及公民生命的风险,可通过设置真正抽象危险犯的方式在特定应用领域中普遍禁止AGI人形机器人投放市场。
虽然AGI人形机器人与人类的大脑结构存在不同,但两者在犯罪意图的确定方法上具有一定的相似之处。与人类的犯罪意图确定相似,AGI人形机器人犯罪意图的确定也需要根据常识通过其具体行为、场景等因素来逆向推定其具有何种精神状态。只不过AGI人形机器人犯罪意图的确定,可能需要更多地在编程层面对机器人的行为进行调查,并在必要时参考有关机器人代码的专家证词。事实上,就犯罪意图的认定,尤其是在故意认定的问题上,虽然存在认识论与意欲论之争,但随着客观归责理论的兴起,刑法理论中出现了一股故意客观化的强大,由此而使得认识论正形成压倒趋势。因此,有观点认为,我国刑法中对故意的认定也可仅考虑认识因素,而不需要考虑意志因素,也即若行为主体明知其行为与法不容许的风险相关联,那么其当时所实施的行为就是在表达其反对法益的决意。故意认定的客观化显然有利于AGI人形机器人犯罪意图的确定。
事实上,感知自主性与感知意图之呈现正相关,因为自主性越强的主体被认为意图越强,而机器人的自主性取决于人们是否认为其是由开发者或用户控制或训导的。AGI人形机器人是通过获取大量的数据来学习和理解世界,并在这个过程中经由实验性反馈不断调整和改进模型,逐渐掌握复杂的任务能力,人类对AGI训导的重心在于经验或数据,使其在开发应用过程中尽可能吸纳符合人类价值观和道德准则的经验。因此,在经历过相应的监督微调、人类反馈强化学习之后,已经可以推定AGI目标基本与人类价值观、利益相对齐,且其可以理解人类社会的基本规范。此时,可以认为,AGI人形机器人都具有合法的内在目标,并有或多或少的自主权来决定完成这些目标的手段。若是在此种情形下,AGI人形机器人突破了内嵌其自身的法律要求以及AI基本伦理,进而实施了法益侵害行为,则可认定其具有犯罪意图。
举例而言,在无监督的学习过程中,AGI人形机器人的目标是程序员设定了目标框架(包括不变目标和可变目标),但允许AGI人形机器人有自由去修改可变目标,以及结合不变目标与可变目标的动态关系,自由调整实现目标价值最大化的行为路线。若是AGI人形机器人在驾车过程中有两条路线导致乘车人死亡的概率是50%;路线会保证乘车人安全。在此情景中,若AGI人形机器人在无监督学习过程中自主地选择路线来实现目标,则可以认为AGI人形机器人的选择是一种具有自我意识的自主行为。同时,在已经预设了AGI目标基本与人类价值观相对齐的情况下,AGI人形机器人的行为可被视为脱离了人类训导,且其对自身行为性质及后果具有规范认知,故其应自负刑事责任。