欢迎光临
我们一直在努力

机器人伤人事件:没有意识的它只是人类操控下的傀儡

上周,2016年底十八届深圳高交会(中国国际高新技术成果交易会)突发一起伤人事件,伤人者是一台名叫“小胖”的机器人。一时间,“机器人三定律”又被拎了出来。

为了避免机器人伤害人类,1942年,美国著名科幻小说家阿西莫夫在作品《我,机器人》中提出了“机器人三定律”,被称为“现代机器人学的基石”:

第一法则:机器人不得伤害人类,或坐视人类受到伤害;

第二法则:除非违背第一法则,机器人必须服从人类的命令;

第三法则:在不违背第一及第二法则下,机器人必须保护自己。

后来,阿西莫夫加入了一条新定律:

第零定律:机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

对于提出的三定律,阿西莫夫本人曾经无不自豪的说过:“三定律是理性人类对待机器人(或者任何别的东西)的唯一方式。 ”不过,随着时间的推移以及人工智能的发展,“机器人三定律”的适用性逐渐发生了变化。

机器人三定律的几点疑惑

首先,机器人如何分辨“人”和“机器人”? 一般来讲,机器人主要通过传感器和计算机视觉来感知人类,但是仿生机器人、人造皮肤等进一步将人类与机器人的区别模糊化。目前,人类通过肢体和语言来分辨机器人,但这两者在未来肯定是会进行优化的,届时,连人类都区分不了的情形下,又怎么要求机器人能够准确分辨?

其次,在机器人这里,什么才叫做“伤害”? 通常来讲,伤害分为生理伤害以及心理伤害。比如甲方对乙方恶言相向,这时候机器人该上前阻止吗?或者说人类失恋酗酒,对于这种“自残”行为,机器人是选择“坐视人类受到伤害”还是上前夺下酒杯?所以,对于“伤害”一词的模糊定义,也给机器人的命令执行造成了一定的阻碍。

另外,对于阿西莫夫所增加的“第零定律”中的“整体”一词,这是指个人的整体还是人类种群的整体? 若是个人,那是不是人类就不能截肢了?毕竟机器人要确保“整体”。若指的是群体,当自动驾驶汽车撞向行人之时,人工智能系统又该怎么做?

除了语义,在逻辑上,如果按照阿西莫夫定律,那么“机器人伤害人类”就是一个“无解”的问题 。举个例子,当劫匪实施抢劫之时,按照定律,哪怕受害人下了杀死劫匪的命令,机器人依然要在不伤害劫匪的前提下保护受害人,如此一来,机器人唯有挡在受害人面前接受劫匪的伤害,但是这就违背了第三定律,如此一来,三定律之间本就是相互矛盾的。此外,若是劫匪绑架了人质要求银行交出钱财,机器人是该为了个人的“整体”而交出钱财,还是为了群体的“整体”而杀死劫匪和人质?其实,不管是哪种做法,现实中的机器人终会违背机器人三定律,就如上文所讲,如果按照阿西莫夫三定律行事,机器人只会陷入无限的纠结之中。

所谓的“机器人杀手”多只是人类的“傀儡”

事实上,不管机器人三定律怎么说,或是人类怎么执行,人们口中所讲的“机器人杀手”都显得有点名不符实,这只是人类对其一种浅显的定义。

机器人并不具备“自主意识”

鉴于深度学习算法的强大,作为机器人的一些附属技术,语音识别、图像识别等技术愈发精进,再过个几年,其性能更是能与人类一较高下。

以语音识别为例,其最主要的用处在于人机语音交互。目前,人工智能的语音识别技术已经相当成熟了,不过,这还只是语音交互的第一步而已。此前,在一场针对自然语言处理的图灵测试中,聊天机器人可谓全军覆没,而造成这种现象的关键因素就在于深度学习算法的不足。

深度学习算法是人造神经网络的主干之一,而人造神经网络是机器人能够“自学”、有“自主意识”的所要解决的最大难题。看当前的人机语音交互的缺陷,显然人造网络神经的发展还不足以支撑“自主意识”机器人的研制。如此一来,在人造神经网络不完善、机器人没有“自主意识”,甚至连“意识”这一词汇都没有具体定义的情形下,机器人又怎知何为“伤害人类”?又如何称得上“机器人杀手”?只是一种略微夸大的称呼罢了。

“机器人杀手”的背后都是人类

纵观如今现世的机器人,论意识的话,也只有堪堪的几家团队的机器人具备了一些基本的意识,并不具备成为“机器人杀手”的资格。此前,美国达拉斯市警方使用一台机器人引爆炸弹,从而杀死嫌疑犯,由于是第一次在战场之外造成伤亡,这件事在当时引起了全世界的轰动。

此次事件后,“机器人杀手”相关论言被顶上了舆论的高峰。然而,当很多人将关注点放在“机器人杀人”上面时,他们都忽略了一个事实——是人类操控着机器人引爆了炸弹,是人类操控着机器人杀死了嫌疑犯。除此以外,这些年来,机器人越来越多的被投放于战场,像无人机、装载杀伤力武器的机器人战车等等,它们的行动依据是什么?是人类提前放入的地图,以及设定的程序,而在行动过程中,这些机器人还将受到人类的指挥。

以此来看,在不具备“自主意识”的前提下,作为人类教导、训练出来的产物,人们口中的“机器人杀手”充其量也只是人类手中的“傀儡”。而在阿西莫夫“机器人三定定律”中,与其将问题抛给不具备“自主意识”的机器人,不如说是将问题抛给了其被背后的人类操控者。

从系统中的算法,到所加载的各项人工智能技术,再到身体构造的每一个细小零件,机器人的每丝每毫都是人类所赋予的。在一个机器人的研制过程中,研究人员会将很多知识、数据输进机器人的“大脑”,在此基础之上,机器人拥有了一些基本的“自学”能力。

既然是“自学”,就一定会有一个“学习对象”,而人类就理所当然的成为了机器人的“父母”(“人”生的第一个启蒙老师)。这里有一个典型的案例,今年3月,微软在Twitter上推出聊天机器人Tay,结果在不到一天的时间里,Tay就被网友“教”坏了,不仅满嘴脏话,更是有了种族歧视,鉴于种种劣迹,微软将其关了禁闭。从这件事中,我们看到了机器人“自学”能力的强大,也看到了人类的教导责任之重。

在未来,机器人极有可能会拥有“自主意识”,如果不加以正确的指引,“机器人杀手”不日就会到来。由此,为了避免“机器人杀手”的出现,为了让机器人不伤害人类,在提升机器人性能的同时,人类的相关素质是不是也该抓抓紧了。当然,我们不能百分百的将希望寄托于人性,所以加强网络安全也成了必然,以此避免机器人落入不法分子手中,或是在机器人中设定特定程序,能够在最佳时机一键停止机器人的所有机能。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。