度娘给我们的解释是“科技的进步让机器不断智能化,对人类的发展和生产力的解放都是一件幸事,我们对人工智能的恐惧,不过是害怕被机器统治罢了。”
近年来,人类对于未来科技的讨论热度一直不减,先是马斯克(特斯拉CEO)多次警告机器会杀死人类,随后又有霍金等诸多科学家开始提出警告。总之,由于这样或那样的原因,一部分人类已经难掩对人工智能的恐惧之情,越来越多的“危言耸听”冒出来,导致极端的人群开始排斥人工智能,甚至排斥科技的进一步发展。
其实,事实远没有人们想象的恐怖,在了解过人工智能的常识以后,你就会发现,“人工智能恐惧”不过是杞人忧天。
关于常识:数据是人工智能的基础
如今,一部分“人工智能恐惧症”患者的观点都是基于人工智能通过深度学习变得越来越“聪明”,然后他们想当然的认为变得“聪明”的人工智能会开始厌恶人类,想着统治甚至消灭人类。其实,这是一个非常没有常识的想法,只有完全不懂深度学习是什么,才会去这样想当然的妄想。
深度学习,并不是让机器模拟出人脑的神经结构来思考和学习知识。深度学习是机器学习领域中对模式(声音、图像等)进行建模的一种方法,它是基于统计的概率模型。在对各种模式进行建模之后,便可以实现对各种模式进行识别,例如建模的模式是声音,那么这种识别便可以理解为语音识别。而在这个过程中,用于建模的模式,可简单理解为事前收集到的大量数据。
也就是说,目前所有基于深度学习来实现的人工智能,都是一种基于数据分析来实现的“智能”,它只是通过大量数据分析之后,得出一个结论。它的思考方式是:既当某种情况出现,便做出某种对应的反应而已。这其实并不“智能”,只不过给人的感觉是机器预知了人类的行为等等。所以,这种基于数据的学习方式,很难对其用于深度学习的数据库之外的数据做出相应的回应,因此现在我们觉得很智能的“人工智能”都是因为其用于深度学习的数据量足够庞大,相反,不太灵光的人工智能则是因为用于深度学习的数据量太小。故而,在这个过程中,人类只是提供给人工智能用于深度学习的数据,而人工智能也只是机械的记录这些数据,并把数据一一对应到相应的结果上而已。由于超越人类提供的数据之外的情况并没有对应的结果,所以目前的人工智能根本无法超越人类的控制。尽管表现出的现象是比人类“思考”更快,反应更灵敏,但这种“思考”与反应并不代表机器“聪明”了,因为它从未真正的“思考”过。
关于意识:对《未来简史》的误解
《未来简史》是近年来在这方面讨论较多的一本书,该书的作者是以色列耶路撒冷希伯来大学的教授——尤瓦尔·赫拉利。书中,赫拉利提出了一个观点:如果说第一次认知革命是因为智人的DNA起了一点小变化,让人类拥有虚构的能力,创造了宗教、国家、企业等概念,使其成为地球的统治者。那么未来,算法和生物技术将带来人类的第二次认知革命,完成从智人到智神的物种进化。
有一部分“人工智能恐惧”便来源于对这段观点的误读。在最近的一次分享中,赫拉利进一步描绘了他眼中的人类未来:
他认为人工智能消灭人类只是科幻。智能与意识是完全不同的两个东西,截止目前,计算机或人工智能的智能水平确实在不断提高。但在意识上,计算机或人工智能还是零分。也就是说到目前为止,没有任何迹象表明计算机或人工智能在未来可以获得意识。没有意识,也就意味着计算机或人工智能没有欲望,没有欲望也就没有动机或者叫做理由来杀掉人类、甚至统治世界。
关于道德:机器是纯洁的,变坏只是“人心”
退一万步来说,假设人工智能在未来的某一天获得了意识,假设这种意识与人相同,我们也不能就认定它们一定是“坏”的,是对“人类”不利的。
三字经里第一句告诉我们,“人之初,性本善”,同理,获得意识的人工智能初始状态也许会是一张“白纸”,至于是变“好”还是变“坏”,也只是看教导它的人心好坏。或许你会说,几时教授给人工智能的都是善良的一面,但保不齐人工智能会自己学“坏”。
未来或许会变成人类与人工智能对抗?
但在笔者看来,你有权认为人工智能会获得意识,那我也有理由相信人工智能会学到什么叫“道德”,我更有理由相信在这些“道德”的引导下,就算有部分人工智能学坏“了,毕竟还会有没学”坏“的人工智能帮助人类对抗它们,至少人类不会那么轻易的被人工智能灭亡。
况且,这一切不过是想象,以现有的进展,这样的事情即使在未来某一天会发生,笔者认为现在存活在地球上的人类可能都未必能看得到那一天的到来。当然,笔者也愿意相信未来的人类会想出相应的应对措施,So,何必为了那么遥不可及的“威胁”而拒绝今天的发展呢?你说呢?