信息社会、大数据时代正在全面铺开,网络社会加速形成,开始深度影响人类社会生产生活。而今,基于信息网络技术形成的人工智能,已处在下一个互联网时代的风口浪尖,对人类生产生活与交往方式产生颠覆性影响。
社会形态的大变革,使法律制度作为人类社会文明的产物,面临人工智能的极大挑战。刑法是社会控制的手段,正在被纯粹“物化”,成为“智能时代”与“智能人”统治与驾驭“人”的制度工具,侵蚀传统刑法体系中“人”的主体性。同时,具有超人类属性的人工智能隐藏不可估量的重大制度性风险,甚至直接危及人类的自身安全与主体地位。现行刑法制度的社会基础、存在意义、任务安排、功能设定等内容,可能正在经历一场裂变,逐渐取而代之的是“人工智能社会与刑法”。为此,当代刑法应作出敏锐的理性回答。
人工智能与传统刑法的裂变场域
人工智能时代绝非“纸上谈兵”。智能量刑、智能刑法运行体系等个别性的刑法蜕变迹象相继出现,初步揭开了智能时代下当代刑法何去何从的面纱。
(一)智能量刑系统的探索前景。电脑量刑一度备受关注,我国不少地方司法机关也在试验电脑量刑系统。在人工智能时代,借助大数据流量与智能算法,“用鼠标点击出自动化判决”,正在超越法律经验与人脑智力之间的技术壁垒,成为解决量刑规范化的技术尝试,是电脑量刑的智能升级版。
2016年10月,欧洲科学家打造出人工智能“法官”,可以辅助量刑。2017年7月,我国“国双”检察院线产品推出定罪量刑辅助系统。根据给定资料、结合法律法规和既往案例,自动推送定罪和量刑建议。人工智能为量刑规范化注入“智能”力量,“智能化”甚至可能成为量刑公正的新评价标准。
网络“智能犯罪”形态仍在增量,智能量刑系统的市场需求也将扩充,“智能量刑”时代或将到来。但难题在于:如何借助智能技术,将人类语言、思维、经验等法律知识,遵循人类社会信赖的公正标准与要求,通过自动解码,将网络语言转换成可以人类识别的电子信息。否则,“智能量刑”背后的“技术暗箱”操作与“流水线”生产方式,隐藏巨大的不确定性风险。
(二)智能刑法运作体系的孕生。得益于司法数据公开等得天独厚的优势,“人工智能+法律”的应用井喷不止。在法律检索、法律文件审核、法律咨询等方面,人工智能催生的“法律科技”正搅动法律服务市场,其中,智能刑法运作体系已走在前端。2016年,世界上首位人工智能律师(“协助展开法律研究的人工智能律师”)ROSS Intelligence横空出世。我国也正在探索智能(智慧)检务、开发智能律师系统、设立智能法院、开发智能刑事办案系统。
当前,人工智能系统+刑法应用系统作为辅助手段,不仅可提高效率与准确度,也可通过屏蔽人情、关系等案外压力使司法判决更符合逻辑与法条本意。但其难点在于:(1)计算机语言与人类自然语言的无缝对接,如果计算机语言无法转变成人类自然语言的形式,刑法的智能化意义不大。(2)智能系统如何按照人类的思维与情感等要求定罪量刑,而非单纯按照系统设定或通过学习得出标准答案,真正实现定罪量刑的智能化。(3)对人工智能技术进行必要且有效的监管,使人工智能技术的应用具有可视化与可知性,避免“技术暴力”。(4)对人工智能系统控制的数据、信息等进行保密,规范数据的采集、提供、存储、使用等行为。(5)明确智能法律体系的“法律职业人资质”问题,如是否需参加法律职业资格考试、法律职业等级认定、司法责任制等。
(三)无人驾驶与交通事故犯罪的胎变。无人驾驶技术(汽车)是当前最成熟的应用领域。这对传统交通事故犯罪的影响有:一是“人”已不实质参与驾驶行为,“人”作为驾驶主体虚化。“人”退居二线,使刑事责任主体无从可寻,“无行为则无犯罪”原则失灵。二是基于“允许的风险”而作出的风险分配责任体系,在智能驾驶环境下失灵。毕竟查证“无人驾驶汽车”的主观罪过是技术上的伪命题。一律追究智能服务提供者的刑事责任,是将技术作为“替罪羊”的倒退,是过度依赖替代责任的偏执之举。
在智能驾驶时代,交通肇事罪的行为主体由“人”全部变成潜在的“被害主体”,导致传统的肇事者消失,一并殃及刑事归责与制裁环节,但完全转嫁到智能技术或智能汽车提供商显失公平。同时,“人”脱离具体的驾驶行为,“危险驾驶人”在一定范围已不存在,而完全是智能机器的行为,危险驾驶罪的立法基础可能随之动摇。单纯作为允许的风险对待,虽符合“技术中立”的导向,却纵容过高的刑法风险,忽视被害人的利益保护。为此,应明确智能汽车的使用者、所有者、提供者、制造者的责任归属与分配问题,而不应由某方单独承担替代责任。
(四)智能医疗与医疗事故犯罪的虚化。在智能医疗技术背景下,对医疗事故罪这一典型的业务过失犯罪而言:严重不负责任的医疗主体可能不是具体的医务人员,而是智能技术或智能机器人,责任主体出现模糊化;智能医疗技术内在的不确定风险是新变量,严重不负责任与医疗事故之间因果关系的认定更难,运用传统的因果关系可能失效。与此同时,医疗系统加速高度智能化,使医疗人员的主导地位相对下降,智能医疗行为的可替代性增强,法定医疗主体的身份专属性迅速下降,直接冲击非法行医罪的立法基础。是否取得特定医疗职业资格的主体身份专属性明显淡化,智能医疗业务过失作为犯罪的处罚条件升高,“智能人”的医疗行为与医疗过失事故之间的证明难度递增,使非法行医罪规制难以有效介入智能医疗业务过失行为。
(五)智能创作与著作权犯罪的调试。据报道,人工智能机器人已经可以自主创作作品,包括谱写流行歌曲、撰写小说、电影剧本、绘画和生成诗篇和散文等。这使“人”是法定著作权主体的常识遭遇质疑。对于智能机器人作品的版权问题。有观点认为,智能机器人远未达到“人”的创作能力,无法取得著作权,可以参照职务作品或雇用作品的规定,由创制机器人的“人”享有和行使。另有观点认为,人工智能生成的内容仍是应用算法、规则和模板的结果,不能体现创作者的独特性,不能被认定为作品。
智能机器人可以独立创作,使权利主体、权利形态、权利使用方式等发生变动,冲击传统著作权犯罪的立法基础。比如,被害人可能是智能机器人,犯罪对象包括智能作品,侵犯著作权的犯罪行为构造迥异,智能作品被侵害的危害样态及评价标准趋于电子化。这将倒逼著作权犯罪构成要件要素的网络化调整。
人工智能与刑事归责原则
在人工智能社会中,人与人类社会极可能面临重大挑战。“人对自己的行为负责”“人在社会有机体中的责任”“人应当承担刑事责任”等社会伦理观或将修正。智能机器人如何兑现“自我担责”、何者可以对“智能人”依法归责、智能社会的“归责意义”等更无从谈起。人工智能引发传统伦理观的变更,对刑法的渗透与侵蚀也将进一步动摇刑事归责体系。
在实践中,智能机器人引发的危险行为,既包括智能系统的技术危害,也包括智能系统作为工具时被非法利用或滥用引发的危害,更包括作为独立主体的内在风险。对于刑事归责问题,有以下思路值得考量:(1)技术中立原则。人工智能技术具有相对的中立性,不宜过度苛责技术的危险性。应对利用或滥用技术或“智能人”直接归责。(2)基于产品责任的刑法替代责任。机器人仍可以视为是科技产品,借鉴民法中的产品责任,对网络制造者或服务提供者进行归责,是“替代责任”。(3)基于监督义务的业务过失责任。在过渡期人工智能仍由“人”发明与使用,制造者与使用者负有相应的监督义务,网络监督过失的刑事归责模式有其用武之地。(4)基于独立主体的罪过责任。“智能人”作为未来独立的新型刑法主体,应对其罪过承担相应的责任。
(作者为北京师范大学刑事法律科学研究院博士后)