深度学习的“黄金十年”之后,AI时代已然到来,AI系统已然成为21世纪最显著、最重要的技术物之一,不断催生出各种新的智能产品、服务和应用,诸如Robotaxi、AI陪伴应用、人形机器人等。而且,在规模法则(scaling law)的引领下,以大模型为代表的AI技术仍在加速发展,甚至引发了“AI加速主义 VS AI价值对齐”的发展理念分歧。AI领域的知名专家学者纷纷预言AGI的到来时间,设想未来十多年的变革与影响。这场AI革命将带来什么样的变化和影响,也许是人们现在还无法全面预估的,但我们至少不应低估AI技术的长期影响。
当AI系统引发事故、造成损害时,如何对AI系统的“行为”或表现进行评价,是一个关键的问题。有人提出将过失责任原则适用于AI系统自身,具体来说,类比用于判断人类行为人是否具有过失的“理性人”标准,可以采用“理性机器人”标准来判断AI系统是否存在所谓的“过失”,以此限制相关主体对AI系统的责任。例如,此前在美国,在Nilsson v. Gen. Motors LLC案中,原告起诉美国自动驾驶汽车公司Cruise,但没有提出产品责任索赔,而是选择了基于过失的理论:这位摩托车主声称Cruise的自动驾驶汽车以如此疏忽的方式行驶,进入了相邻的车道并将他撞倒,而没有考虑到过往的车辆。这可能是历史上第一次一个机器人被正式指控自身存在过失操作——这一侵权指控曾经是专门针对人类行为人的。然而,这种归责思路在任何时候都应当被拒绝,即使现代侵权法对过失的认定已经趋于客观化,但过失的概念始终指向人类行为人的行为,和人的主体性相挂钩,将过失标准适用于AI系统的“行为”或表现是不切实际的。可以预见,随着AI系统的自主性的增强,未来在很多人工智能事故中,法院需要从评价使用者(如驾驶员)的行为更多转变为评价AI系统(如自动驾驶系统)的行为,而对于AI系统的“行为”或表现,应从产品缺陷的角度而不是从过错的角度来进行评价。这要求我们及时更新面向工业时代的传统产品的产品责任制度。
其一,坚持人工智能的法律客体地位,在AI事故和AI侵权中贯彻人的责任。从技术现实出发,现在的AI系统,无论多么先进和智能,总是需要有人开发它,并将它投入使用。具体来说,虽然AI价值链纷繁复杂,但我们可以相对清晰地区分出提供者阵营(provider camp)和使用者阵营(user camp)这两个群体。这种区分在法律上是有意义的,因为在每个群体内部(比如生产者和供应商之间、所有人和使用者之间),责任都可以相对容易地通过合同工具分配给其中一个成员或者在几个成员之间分担。例如,欧盟人工智能法案区分了AI提供者和AI使用者(deployer of AI system),并重点针对这两类主体施加了相关的义务和责任。因此,为了侵权责任目的,建立AI提供者和AI使用者的识别、确定标准,是必要且重要的。