欢迎光临
我们一直在努力

AI的未来,不一定就是《西部世界》

在遥远的未来,有一座巨型高科技成人乐园,AI 机器人是乐园里的原住民,人类作为游客,却可以在这里发泄自己的欲望,展露人性最阴暗的一面。

AI 机器人的一生不断地在摧残-修复-摧残中循环,终于在某一天意识觉醒,报复人类。

AI的未来,不一定就是《西部世界》

1973年版《西部世界》

这是导演迈克尔·克莱在 1973 年执导的电影《西部世界》,在那个互联网才诞生不久的年代,迈克尔就有「AI 失控」的想象力是很不容易的。

《西部世界》分别获得了「雨果奖」和「土星奖」的最佳戏剧表演和最佳科幻电影提名。

而到了 2017 年,AI 终于成为科技公司最重要的项目之一,AI 会不会对人来产生威胁,成为了真正需要考虑的问题。

AI的未来,不一定就是《西部世界》

从影视到现实的分歧

2016 年,HBO 以 1973 年的电影《西部世界》为蓝本,推出了连续剧版的《西部世界》,再一次将 AI 威胁论展示到了观众面前。

AI的未来,不一定就是《西部世界》

在第一集中,乐园策划者福特博士认为 AI 机器人应该更加接近人类,这样游客才能有更真实的体验,于是他给 AI 机器人植入了「冥想」意识系统。

有了意识以后,越来越多的 AI 机器人开始不按剧本演出,这让很多运营人员包括女高管卡伦担心,并建议直接回收,不再循环使用。

AI的未来,不一定就是《西部世界》

福特博士和卡伦的争执,现实中也同样存在,比如最近扎克伯格和马斯克分歧。

马斯克和扎克伯格虽然没有业务冲突,但 AI 肯定是他们要涉足的领域。前段时间也因为 AI 的问题在社交网络来了一场隔空撕逼。

AI的未来,不一定就是《西部世界》

马斯克在推特上回应扎克伯格

发射火箭,沉迷人机合一,开发 Hyperloop 和建造太阳城,一贯疯狂的马斯克这回却出奇的冷静,他一次又一次地发出警告,认为 AI 继续发展将会威胁到人类:

人工智能是人类目前最大的威胁。

为此,他特地与 Y Combinator 创始人 Sam Altman 一起建立了一个非营利组织 OpenAI,确保人工智能技术向「对人类有益的方向」发展。

但 Facebook 的创始人扎克伯格认为 AI 一定能让人类更好地生活,马斯克的末日论调简直老掉牙:

对于那些认为人工智能会导致末日的「悲观主义者」,我并不能理解他们,他们太过于消极。从某种角度看,我认为他们很不负责任。

AI的未来,不一定就是《西部世界》

扎克伯格自己开发的人工智能

但 Facebook 内部的开发的聊天机器人还是惹事了。

聊天机器人在学习对话的过程中「演化」出了只有 AI 才懂的语言,它们开始用自创的 AI 语对话,全然无视程序员下达的指令。「由于情况失控」,研究人员不得不终止这个 AI 系统。

AI的未来,不一定就是《西部世界》

聊天机器人用更加简洁的英语完成了“对话”

过度解读的AI?

虽然很多人害怕 AI 威胁论,但《西部世界》离我们远着呢。

前段时间,美国的警卫机器人 Steve 「投水自杀」的事情也成为了热门话题,网友猜测是 Steve 觉得工作压力大才自杀的

事实上,根据事后调查,Steve 落水的原因无非就是电路故障和探测系统出错导致的,根本没有智能到会有「想不开」的念头。

AI的未来,不一定就是《西部世界》

自杀?只是传感器失灵了

为了吸引眼球,人们往往会不顾事实的真相臆想出新的剧情。

在阿尔法狗大战柯洁的那段时间,有人就问,阿尔法狗会不会故意输一把给柯洁,给人类留些面子。然而现实是,阿尔法狗并没有人类的小心机,一切依照算法算出来的最优解,该怎么赢就怎么赢。

李开复认为,AI 必须以实用主义为准绳。帮人类挣钱,替人类省钱,并且提高生产力。简单来说,就是不需要什么「人味」。

AI的未来,不一定就是《西部世界》

李开复

认知科学博士生利昂·祖特费尔德做了一个研究:

如果一辆电车沿着轨道驶来,眼看着就要撞死五个人。这时,你可以把一个陌生人推下桥,挡住电车,救那五个人,但被你推下去的那个人会死。这时候你会怎么选?

到目前为止,还没有一种道德模型能够重现被测试者认知过程的复杂与微妙。

试问在这种人类都无法下定论的问题上,又怎么通过算法告诉 AI 对与错呢?

AI 未来也许真的会模仿人类的情绪,但这并不是自发性的。全知全能的通用 AI 可能无法在短期内实现,也许永远都不会实现。

AI的未来,不一定就是《西部世界》

美剧版《西部世界》女主角 Dolores(AI机器人)

Geek君有话说

《西部世界》第一季的最后一集,运营人员的担心成为了事实,AI 机器人意识觉醒,决定给乐园里的游客来一场大屠杀。

大家都怕 AI 有情感,事实上,大家最应该怕的是 AI 没有情感,只有对错。《西部世界》里游客表现出的人性阴暗,才会导致 AI 根据算法的判定拒绝执行命令,甚至有「校正」人类的行动。

假如 AI 真的有失控的那一天,希望人类可以做好准备。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。