欢迎光临
我们一直在努力

人类要教机器人撒谎?

人工智能发展到未来,会欺骗造出它的人类吗?会对人类造成什么样的影响?我们该允许机器人学会欺诈吗?

以下是报告全部内容:

一、为什么要有欺骗?

我们为什么要有欺骗,希望让设备自己撒谎?欺骗为什么这样重要呢?因为有的时候欺骗不仅仅是人类关系的体系。在自然界中有很多的物种,生存的前提条件就需要有欺骗。为了存活,希望能够捕获到你的猎物,找到很好的配偶或者说其他的需求,你必须有欺骗的能力。在特定的情况下,欺骗的需求是必要的,它不是最好的方式,但是一个层面。

有的时候在很多的层级上必须非常的智能,我们有图灵测试,实际上它自己就是一个欺骗,一个设备被使用或者说设备来欺骗你——人,作为对方来讲,让你受到欺骗,认为他也是一个欺骗,这就是图灵测试的目的。

1、欺骗对自己有利

这个是自然界的情况。首先是一个断翅的展示,这个鸟儿会假装它的翅膀断了,让捕猎者朝着它去,不会打扰到它的鸟窝;猩猩像人类一样,开始给它的妈妈梳理毛发,就像儿子孝顺母亲。妈妈也利用了这一点,然后把它的工具给偷走,偷来之后把坚果敲开了。

有的时候这些动物确实有欺诈的行为,有我们人类的一些假动作。通过欺骗的方式来愚弄你的对手,像橄榄球或者美式足球都会这样来误导别人,假动作你成功了,作为团队成员的话,你会欢呼,因为最后你赢得了比赛,但是你的对手不高兴。

2、欺骗对对手有利

还有另外一个例子,欺骗对我们的对手有利。你要哄你的小孩子吃蔬菜,你通过欺骗的方式让你的小孩子能够吃蔬菜,这也是通过欺骗来帮助你的对象,并不是说通过欺骗来迷惑你的对象。从社会的角度来说,我们是需要这种欺诈的,让别人也会喜欢你,这是一个很好的社会的智能。我们的机器人是不是也要和人一样有社交的欺诈呢?

二、机器人是否需要欺骗?

1、社交中的欺骗

这个机器人也是非常酷的,就像一个大大的鸡蛋,转来转去。他问这个机器人“你的诚实参数是多少”,“我的诚实参数是90%”。绝对的诚实在外交上是不正确的,在整个的沟通上也不是安全的。我们可以来调整一下我们关于诚实的一个定义注解或者说不诚实的注解。

另外研究机器人欺诈也是一项非常有意思的工作,演进的算法出现了这样的欺诈,能够诱开这个食物源,像石头、剪刀、布这样的机器人欺骗。如果说这个机器人智商高的话,它就会用欺诈。

2、军事中的欺骗

所有的战争就是通过欺诈完成的,从政治角度来说,这种欺诈令人讨厌。但是战争当中我们要有这样的欺诈,这是光荣的事情。

还有回到历史的记录,这是我们宣言,历史当中的宣言。比如说犹太教或者基督教或者其他的,比如特洛伊木马的传说都是一些欺诈,有各种各样欺诈的工作,各种宗教都有。美国他们会有战场的欺诈条令,就是教会他们所有的士兵都必须知道这样的欺诈条令。而在中国也会有中国军队也有这样欺诈的训练,兵不厌诈。

三、欺诈模型与理论、算法

像这样一个假的沟通对整个欺诈者会有利的。那为什么我们是这样的呢?为什么要欺诈呢?

一开始我也进行了这样的研究,还有我的毕业生,我们进行思考,如何让我们的机器人能够相信人?如何让他相信这个司令官?司令官不仅仅要让机器人做正确的事情,还会告诉机器人做不正确的事,然后我们就有这样的模型。我们识别到,其实欺诈,也是信任的另一面。如果是一个很好的指导官,他会告诉你,你要做的第一件事就是要获得信任才能获得欺骗。

这里有一个说法,这是人类心理学家的算法,比如说相互依赖,就是一个前提。一个欺骗者,他有假的沟通,他的对象或者是他所要欺骗的机器人或者人,他们必须要能够解释这样的信息。那么当然也有各种不同的欺诈,比如像松鼠,作为我们研究欺诈的一个模型。

在我们整个研究方法里,这叫做互相依赖的理论,这里当然有其他好多的维度,我们用了冲突和依赖。我们这里有一对这样的代表,一旦出现了这样的冲突,你有了我想要的东西,或者我这里有你想要的东西,这就是一个冲突,有了这样的冲突,然后有这样的依赖,我们都依赖这样的资源。那么,欺诈就发生了一个作用了。

我们所发生的作用,我们要做两件事,一个是我们决定什么时候欺骗,然后要决定如何去欺骗。你不可能就是随机地做,我们必须要找定一个时机。互相依赖的理论,我们进行这样的影射,有这样一个区域,这里有一个非常强大的依赖的结果,还有一个高度冲突的结果。还有一个半圈,这是一个三角形,这里是一个参数。这是一个诚实的参数,这是一个影片当中真实的参数。

当然如果这个区域非常小的话,不会欺诈。如果这个区域很大的话,就会有更多的欺诈。所以我们有调解的能力让机器人或者相应的代理做到这里,有这样的冲突和依赖性。我不是谈技术的东西,只抛砖引玉,有很多的论文都可以读一下,还有相应的影射以及游戏的理论各种各样的东西。

底部这条线,等会儿给大家看一下,我们必须要有这样的能力能够影射,我们是用这样的模型,并不一定重复的,我们必须要使用我们的代理信任模型,你建立了这样的理解,其他的代理思维必须要有这样的信任,这是我们的理论。还有伙伴的模型,在这个过程当中也非常重要,结成伙伴关系,如果我们做这件事情,我们要欺骗你,我们必须先做什么,比如我的模型是画的话,这样不会有效。如果是很好的毛性就有机会奏效了,所以要有一个非常好的模型,有了这个模型之后我们才能出其不意,这是一个建模。

我们这里有一个理论,这个理论非常重要,我可以相信你,其实我要知道你是可信任的,我们才能信任。我获得你信任之后,我才可以欺骗你,非常有意思。在整个领域过程当中这是一个前提,我们所做的方法就是我们有需要传统游戏的模型,这里有相应的结果,我们有一系列的行动,如果是正确的话,那么就一定有这样的行动,然后人们跟我们一起合作。

我们有这些矩阵,在这些对象当中,我们可以看一下具体有哪些不一样,我们看到装死,这是一个非常好的回报,如果你是装死的话有很好的回报。你很快就能够判断它在装死,或者是假装的,他要逃走等等,像类似的场景等等。等会儿跟大家介绍一下我们所做的实验。

这是另外一个算法,我们所做的就是我们理解一下具体的场景,我们理解它的结果,然后你要理解我们的一个对象的本质。如果你知道了之后,你就意识到这是正确的场景,然后你产生了一个行动。这个行动改变了他们的信任系统,有利于你自己想要的,违反了对方想要的,最后你采取行动。你的胜利没有保证,但是有这样的机会可能你最后会得胜。

我们做了一些研究,机器人其实也有这样的传感,如果没有传感,我们无法欺骗。我们其实会有更多的机会,比如说互相的传感器之间有不同的吻合度,有的时候,他们互相不一致的话也会带来一些问题,还有关于你的合作伙伴有更多信息的获得,如果你的合作伙伴模型更好,那么成功机率更高,你的欺骗机率更高。

这是捉迷藏的实验,我们使用小的机器人,我给大家看一个非常短的片子,这并不是非常漂亮的片子,但是会告诉我们怎么做。机器人有点像星球大战第四季或者星球大战第一季。他们藏起来了,要避免其他军团的袭击。机器人来了,他要做出决定了,他如何留下假的足迹,然后藏起来,藏在中间,这是就像一个风暴军团一样,足迹在什么地方,这个机器人来了,来查找这个足迹了。有的时候会查找一下,他朝这个方向走了,另外一个机器人过来了,然后他可以逃脱假的足迹,有两个对象已经踩到了,这是不可预见的。那么你可以看到我们是哪撞了,哪个逃避了。

五、该担心机器人会欺骗吗?

我们在国际机器人杂志上发表了这样的论文,关于这个实验的设置也是非常有意思。这是2010年,这个结果其实并不代表机器人欺诈的最后判断。这其实是一个初期的指针,相应的技术和算法能够使用,帮助我们解决机器人的欺诈。另外我们需要更多心理学上的研究或者更多的证据才能验证这个假设,这个结果并不是所有人都同意。

后来有一个相关的媒体报道,真是非常大肆宣扬的报道:他们教会机器人如何欺诈,机器人开始起义了,然后是机器人的世界末日来了。他们最后把这个点子藏起来,不要告诉我们,好像世界末日了。另外一篇论文说,一些人告诉机器人如何欺诈,会让我们蒙受羞辱。他们描述了这个实验,告诉机器人如何捉迷藏,他们也不高兴,记者也不高兴。下面的记者说,机器人是能够欺诈的,有一些疯子研究者,其实就是有点疯狂,人们也担心,你们是不是担心呢?

我们这样实验,我们告诉机器人怎么欺诈,你们是不是担心?是,也许不是。并不是所有人都认为这是一个好的点子。

《时代》杂志给我们一个年度最佳50个创造发明,从我的角度来说,这仅仅是一个实验,不是发明,但是我们得了年度第50佳发明。还有新的《科学》杂志,他们探索了机器人的思维,然后告诉人类自己的思维。所有的这些理论能够补充人的欺诈思维的研究。

最后机器人能够补充人对大脑的理解。有说这个可能会把人类毁灭等等各种各样的报道,但其中还是会有真理的。我们继续研究像这样的欺诈,哪怕有人说会怕人类毁灭。

六、欺骗的实用性

有的时候为了自己,典型一个例子,我经常使用的就是我妻子问我她今天晚上看上去怎么样,我说看上去很好,有的时候我知道她长得怎么样,我还是要善意地欺骗一下。还有一个,我们结束之后大家说你讲得很好。其实有的时候这样的讲话很糟糕的,特别是亚洲有很多这样的,说你讲得很好就是恭维你。我们怎么使用其他的欺骗,在机器人系统当中推动他们社交的活动,我们所说的这里用的就是犯罪学的法则。

所以我们希望能够把它扩大成三个元素,所谓的动机、方法、机遇。机遇已经讲过了,包括怎么样做,什么时候做,我们现在必须要有为什么做,为什么做这样做,特别情况下动机是什么,还有做这样目的的方式。比方说欺骗。你可以通过说委托或者说投入来去欺骗某人,所以它的方式也不同,当然最典型的例子就是我们可以用一些内部的表情,或者一些距离的转换层进行这样的做法。

我之前就机器人的一些动态和索尼有一些合作,跟三星合作,在十年、十五年之前有专利,当然会有不同的事项,我们有不同的方法显示了出去,基本上显示了一些错误的信号,在人的主题当中我们研究了它的起作用方式。我们的目的是希望推动我们学习、推动机器的表现。有的时候有人会说,那确实,你做得很糟糕,或者恭维你两句,在教育当中经常出现这样的情况,可能大家都是天才。但是我们是要不断地能够在这里面取得成就。

七、机器人的道德伦理

最后一点就是机器人的道德,对于机器人的道德伦理我自己做了很长时间的研究,超过十年了,所以我们从这样一个所谓的大规模杀伤性,特别是大规模杀伤性武器的机器人使用角度,我们允许机器人撒谎吗?

我们有一个理论,这是一个框架理论,我们看到理论就是永远不应该撒谎。如果从功利角度,如果能够最大化我们的幸福度,我们有的时候也能够接受机器人撒谎了。所以我们要界定什么是正确,什么是不正确的?

我们可能对于这个欺诈来讲,机器人根据不同的理论框架有不同的判断。但是,我们的问题最终还是我们是否允许机器人撒谎。我们是否可以允许,我们可以做到这一点,我们也可以想象现场的一个专家来讲,和过去相比,对于未来来讲是否因为欺骗形成,导致人类末日的到来。或者能够让机器人成为社会的一份子,成为我们社会当中一个社交好伙伴。实际上每一个环节都需要非常坦诚对白的,有的时候并不是很好的社交方面的朋友或者伙伴。所以很多的时候,我们也是需要能够界定你所需要的对机器的坦诚度高低。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。