1956年夏天,在美国达特茅斯学院举行的第一次人工智能研讨会上,被称为“人工智能之父”的麦卡锡首次提出了“人工智能”这个概念,标志着人工智能的诞生。自诞生至今的60余年里,人工智能从一般问题的研究向特殊领域不断深入,并逐渐运用于社会实践中。近几年,人工智能正以飞快的速度进入人类生活的方方面面,比如:人工智能家电、人工智能手机、人工智能汽车等。人工智能快速发展,相伴而来的法律问题也急需解答,原有的法律规定面临着很多挑战。
人工智能挑战法律主体界定
2015年7月,德国大众汽车制造厂发生了一起“机器人杀人”事件:一名21岁的工人正在安装和调制机器人,后者突然“出手”击中工人的胸部,并将其碾压在金属板上。这起事件引发了公众对于人工智能的恐慌和专家学者对相关法律法规完善的思考和争辩。2016年2月,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴发生碰擦,所幸无人受伤。美国高速公路安全管理局(NHTSA)却确认,根据美国联邦法律,用于自动驾驶的人工智能系统可以被视为司机。
人工智能载体究竟是不是法律主体?如果不是法律主体,那么当人工智能载体触犯他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?如果是法律主体,那么又该如何为这些“人工智能”定罪量刑呢?
从我国的法律规定来看,人工智能载体不在法律主体的范围之内。我国的《产品质量法》第四十三条规定:因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。显然,当产品造成他人利益损失时,我国法律是规定由产品的生产者或销售者来承担法律责任的。如果依据这个法条来分配法律责任,人工智能是属于产品和工具的范畴。然而,人工智能显然不同于一般的产品,因为它不仅可以像人类一样思考和决策,它的计算和思维能力甚至远超人脑。如果在法律上人工智能被定位为独立的主体,享有权利并对自己的行为承担责任,那么这将对传统的法律体系产生巨大的冲击,比如,对“人工智能”的定罪量刑就需要一个独立完整的法律体系,而这必将挑战我国传统的刑法理论。
对我国法律职业者产生冲击
人工智能技术的发展为法律工作者在合同审查、资料收集、法规查阅、材料翻译等方面提供极大便利的同时,也必将对我国的一些法律职业者产生冲击。
从司法审判的角度看,法院可以利用人工智能技术,实现全业务网上办理,全流程审判执行要素公开,为法官、诉讼参与人、社会公众和政务部门提供全方位的智能服务,让司法更加贴近人民群众。法院可以利用人工智能技术推进业务应用,大力提升审判工作的效率、质量,推动流程再造,促进审判高效有序运行,也可以依托信息化破解执行难题,还可以运用大数据和人工智能技术构建多渠道权威信息发布平台,按需提供精准智能服务,为办案人员最大限度减轻非审判性事务负担,为人民群众提供更加智能、开放、透明的诉讼和普法服务。
在法院审理相关案件时,涉案法条和类案案例是法官进行审理、裁判的重要依据和参考。利用百度搜索技术和自然语义分析技术结合法院提供的案例库资源,可以在法官办案过程中,根据个案精准推送涉案法条和类案案例给法官,做到有法可依、有例可循,提高法官工作效率和处理案件的准确性,提高司法公正。在审判工作中对照参考合适、准确的类案,对于确保司法尺度和裁判标准的统一,以及帮助年轻法官汲取审判经验、提高司法能力、辅导法官成长都具有重要作用。
从律师实务的角度看,随着IBM首个人工智能律师ROSS、英国的机器人律师DoNotPay的问世,律师事务所是否会出现“结构性坍塌”?显然,人工智能的不断发展至少会使那些法律人中日常的诸多非智力性事务从业者被代替,这对律师助理和律师秘书的工作会产生重要影响。但是,人工智能至少目前还没有开发到和人类一样具有高级的情感,比如检察官的正义感、律师会体会当事人的内心挣扎等,这是法律人不能被替代的关键。
总之,由于创新技术的发展,新事物产生的时间大大缩短,由新事物而引发的新案例将越来越多。然而,我国目前还未能形成一套完整独立的人工智能与法律的理论体系。当然,人工智能与法律问题极为复杂,它是法学、哲学、伦理学、社会学等诸学科共同面临的时代课题,拥有广阔的探索空间。