人工智能、自主系统的出现,不但挑战了人类对自然的认识,也挑战了人类对自己的认识,其中就包括各种不可想象变为现实后的法律风险。人工智能离我们的生活有多远?人工智能时代,我们将面临哪些风险?又该如何防范?围绕这些话题,《法制日报》记者与业内研究人士展开了对话。
对话人
腾讯研究院研究员 曹建峰
法制网记者 张昊
人工智能是什么
记者:对于人工智能,很多人的了解还停留在科幻电影、阿尔法狗。从概念上说,人工智能是一种怎样的存在?
曹建峰:通俗地理解,人工智能就是机器能完成人类需要智力才能完成的任务。
以往,我们认为地球上只有人类才有智能,人类的智能包括理性思维、语言能力、逻辑推理和情感,可以解决问题,有自己的目标,可以执行行动。当然,“智能”这个词的边界尚有很多争议,也在不断变化。目前对“人工智能”(AI)和“自主系统”(AS)中的人工智能概念在科学界还没有达成一个共识。
美国“人工智能教科书”以人类为参考,对人工智能有一个通常的定义,即像人一样思考,像人一样行动,理性思考和理性行动。对人工智能还有一些其他的定义,例如能自己设立目标,然后制定一系列的计划执行出来。
人工智能内在的技术或核心用到了一些深度算法,例如神经网络算法,模拟人的大脑结构,从而模拟人类思维、决策的过程。还有深度学习、基因算法、进化论等,深度算法技术支持着机器人进行某种决策。
人工智能和以往的计算机程序的区别,就是它具有自主性,只需要给它一些最原始的数据,它自己可以推出一个结论,做出自己的决策和判断,它有学习的能力,这就是自主性。
记者:我们接触比较早也比较多的人工智能,应该算是聊天机器人软件。它会通过所有用户的使用过程进行语言学习,“进化”自己,逐渐进行更丰富的对话。当然,聊天机器人软件也会学到脏话,用户在对话中告诉它“你说的是脏话”,它还会纠正自己。除了这种聊天机器人软件,目前的日常生活里,我们还会遇到哪些人工智能应用?
曹建峰:国外大软件公司都在推出自己的聊天机器人,目前这种应用还是比较初步的。此外,例如自动驾驶汽车或辅助驾驶,驾驶员不需要按着方向盘,可以自主完成停车、变道、转弯。人工智能应用还有酒店服务机器人、救援机器人,个性化推荐等。
法律风险有哪些
记者:在影视剧中,我们会看到很多探讨人工智能与人类伦理法律的问题。随着人工智能技术的发展,我们在现实生活里是否也会遇到这些问题?
曹建峰:AI系统应用日益广泛,进入了社会生活的很多方面。首先是安全问题,从法律角度看,就可以转化为责任问题。例如无人驾驶会不会对我们的财产、人身安全造成伤害?司机坐在上面不需要自己开车,更像是一个乘客的角色。如果无人驾驶车辆出现故障,导致司机致人损害,司机是否能够获得赔偿?在混合驾驶模式下,司机和车需要配合,发生了车祸,厂商是否需要担责?司机和厂商的责任分配问题目前还比较模糊。
再比如,如何保证人工智能遵守社会规范和社会价值,它面对风险的时候怎么像人一样决策。例如救援机器人,在老者和弱者之间怎么选择,先救谁后救谁,这些都需要提前考虑。
还有隐私的问题。人工智能发展迅速,它做出决策需要大量的个人数据存在人工智能系统中。人工智能系统对我们进行“画像”,形成一个“感官的印象”。我们自己可能都无法知道我们被这些软件或系统进行了画像,更无从知晓这些画像是否真实。或者说,系统给我们打一些标签,我们可能不知道它给我们打的是什么样的标签,这些标签是不是错误或者有一些问题,这些标签转移到其他场合的时候,会对我们的权利产生影响,比如可能影响我们申请贷款、找工作等。我们自己意识不到这个问题,因为它使用的信息是不公开不透明的。
记者:也就是说,人工智能系统搜集的可能是片面的信息,在将来会对人的权利产生影响。
曹建峰:人工智能系统收集什么信息、这个信息做怎样的决策,我们自己是无法控制的,更多时候也是不知情的。
比如,国外一些公司在招聘时会用AI对应聘者进行人格测试,如果系统认为应聘者未来会患上某种疾病或怀孕,可能会造成应聘者被拒,会违反禁止歧视的法律规定。
还有一个问题是算法歧视,这是一个比较迫切的问题。以前有很多工作都是人来完成的,现在被人工智能系统代替,例如个性化推荐。
风险该怎样防控
记者:关于人工智能可能产生的法律问题,我们是否应提前做好应对?
曹建峰:现在讨论有些问题可能还太早,比如人工智能的智力是否会超越人类、脱离人类控制等问题,目前来看还比较远。
不过,一些比较具体的问题还是需要提前关注。比如无人驾驶汽车、混合驾驶汽车,很快就会进入我们的生活,其中涉及的法律问题需要提前考虑。
记者:在刚才所提到的一些问题中,还包括财产和安全的威胁、责任、遵守人类的法则、算法歧视等,这些是否也都应成为法律关注点?
曹建峰:对,很多方面都是法律问题,可以用法律解决。事前的监管主要是研发环节,如果不考虑人类社会的道德规范和价值规范,人工智能应用投入市场之后,在面对危险和事故时,可能做出一些有违人类期待的决策。
世界各国业界都很关心人工智能的研发环节,也就是说设计开发过程是否应该有一些伦理守则,包括遵守人类的道德规范和价值规范、确保安全、公众如何信任研发的AI系统。
首先,成文的法律是必须要遵守的,成文的法律写入代码需要一些方法论。还有面对危机的时候,人工智能应该遵守哪些善恶、是非的选择,这些共识性的道德规则、社会和一些团体共同的价值观要写入代码。
在研发过程中,程序员写出来的程序可能在技术上没有瑕疵,但可能存在社会领域的漏洞,一旦应用可能产生歧视或安全隐患,这就需要建立伦理委员会的审查机制,从社会规范和价值的角度审查算法、逻辑是否与人类规范、价值是一致的,并从专业角度给予建议。
记者:通过刚才的对话可以看出,公开透明原则非常重要,但这一点该如何解决?
曹建峰:信息透明这个问题有几种解决方式,一是人工智能开源运动。开源软件,顾名思义大家都可以共享源代码,可以对软件进行审查,可以及时发现一些问题。另一种方式是,人工智能系统可能不需要向每个人公开,但需要向审批的监管部门公开源代码和其他的材料。
自动辅助驾驶,车辆会自觉“守法”吗
讲述人:朱宏北京市民
2016年7月15日下午,我将车开上北京四环,开启了自动辅助驾驶功能。
在自动辅助驾驶模式下,车辆方向盘会自动根据道路方向转动,带动车辆转弯。如果要并线,车主主动打灯后,在间距允许时,车辆将自动并线。泊车时,经过一个空车位,停下挂倒挡,屏幕上会提示看到了车位,点击“自动泊车”按钮,车辆自动向后退进入车位摆正。
在自动辅助驾驶模式下,车与驾驶者的交互,主要呈现在驾驶者视线正前方的仪表盘上。当车已经识别出车道线,或者识别出前车跟随后,驾驶者就可以打开“限速行驶”。限速是指车的摄像头探测到道路边的限速牌标示的数字。车会马上提速,以尽可能快又不撞上前车的速度行驶,此后,驾驶者就可以启动自动辅助驾驶模式了。进入自动辅助驾驶模式时,屏幕会提示“请保持双手不离开方向盘”。
绕四环近70公里路程,我分了两段。第一段,我从四元桥出发,到四惠附近的一家交互设计公司。第二段,我从四惠出发往南,绕四环回到酒仙桥。再说一下路况,我在四惠、学院桥、望京桥遭遇明显拥堵,西四环畅通。这次绕四环总共耗时一个多小时,还算比较顺利。
在自动辅助驾驶绕四环一圈过程中,我被吓出冷汗两次。第一次是有车辆不文明驾驶恶意并线,当时辅助驾驶察觉到了旁边的车突然加塞进来,车已经开始减速,我还是亲自“上阵”。
第二次是我从四惠桥出四环开向京通快速路时,几条道汇合的地方有十来根半米高的塑料小栏杆,自动辅助驾驶中的车似乎没检测出这些塑料小栏杆,直接往小栏杆上开,我察觉到之后马上主动刹车。
这趟四环“开”下来,为了按交通规则安全并线,我强行打断自动辅助驾驶近10次;遇到其他车辆不文明行驶强行并线,我强行刹车20多次;出现其他感知到的危险情况,我主动打断自动辅助驾驶近10次。
其间,我头一次认真观察周围的那些车,才发现有那么多车违反交通规则压着线占两车道行驶。在自动辅助驾驶模式下,车辆会分析道路白线;当有前车可以跟随时,会优先以前车为准,白线为参考。当遇到前车随意压线时,自动辅助驾驶模式下的车辆也会跟着随意压线,紧跟前车的交通违法节奏。
车在自动辅助驾驶时是跟随车道而行,自动辅助驾驶模式在车道线清晰的大路上会很理想,在小路和施工路段上不太可靠。
平时,我开车绕四环一圈是不需要休息的。打开自动辅助驾驶模式,反而因精力太集中需要缓解精神,我停车在路边休息了3次。
关于自动辅助驾驶,我的感受是这项功能可用,但是驾驶者不能分神。自动辅助驾驶也需要驾驶者与机器有一个互相信任的过程。