1950年,“计算机科学之父”阿兰·图灵提出这样一个问题:机器会思考吗?
在你给出肯定或否定的回答之前,我们首先思考一下——什么是“思考”。
自然界中,作为人主要区别于其他生物的能力,“思考”将我们置于统治者的至高地位。这种分析、综合、判断、推理、概括的思维活动,让人类善于发现事物发展规律,我们暂且简单粗暴地将其归纳为“学习能力”。
目前科学家认为人类“学习”主要由大脑皮层完成的,人类平均拥有860亿个神经元,其中大脑皮层占据了160亿个。神经元的神奇之处在于它们之间的连接数量巨大,每个神经元可能有成千上万个连接,而这些连接以毫秒级的速度传递着“信息”。
人脑是物种进化的产物,这是大自然的馈赠。在大脑的驱使下,人类继续在探寻着大脑的秘密。
机器
“我发现了人脑是如何工作的!”
多伦多大学的一个实验室每周都会传出这样的呐喊声,从事人工智能研究已经四十余年的杰弗里·欣顿(Geoffrey Hinton)终于从非主流变成主流。再次验证了“科学没有主流”的说法。
1972年,离开剑桥大学的欣顿进入了爱丁堡大学研究人工智能——这个从诞生之初便带有科幻色彩的学科。他执着于寻找大脑工作的原理,直到遇见了发明于20世纪50年代的神经网络,他找到自己的“缪斯”。
神经网络是一种模仿大脑结构和功能的数据模型,模仿人类神经网络,经典神经网络包含了输入层、中间层与输出层。
1958年,由两层神经元组成的神经网络“感知器”被计算科学家 Frank Rosenblatt 提出,他证明了机器识别手写字母的潜力。但那时“感知器”只能处理简单的线性分类任务,因此获得人们言过其实的赞誉后便进入了冰河期,连人工智能领域权威人士马文·明斯基都曾著书称“神经网络实际上无法实现人们期望的功能”。
尽管如此,欣顿始终相信大脑一定是通过某种原理进行工作的。上世纪70年代时他的研究方向一直受到质疑,念研究生的他不断央求导师再给他六个月的时间,他一定可以证明大脑是如何工作的。而六个月之后,这样的执拗会继续上演。
事实上,早期科研人员曾分成了人工智能(AI)和智能增强(IA)两大阵营,“用计算机取代人类”的 AI 两度陷入困境,“用计算机来增强人类智慧”的 IA 则在迅猛发展,从鼠标、个人计算机到智能手机的普及似乎让人们逐渐淡忘了人工智能的童话。
欣顿博士毕业后在英国找不到工作糊口,便去了美国。但是他发现在那里从事人工智能领域研究仍存在局限,因为相关研究的资金支持几乎都来源于军队。欣顿曾半开玩笑地说:“计算机会比美国人先理解讽刺。”相比之下,加拿大的研究环境更加自由,后来他加入多伦多大学任教。
那时,学界对神经网络的态度还充斥着偏见,想要发表提及“神经元”或者“神经网络”的论文都十分困难。即便如此,欣顿始终进行着这些看似“浪费”的基础性研究,并用一些比较含糊的描述方式发表关于神经网络的论文。
欣顿的实验室一度被奉为多伦多大学“不可久留之地”,他的研究方向也从未被看好。实验室每周的“呐喊”还是会继续,作为深度学习的积极推动者,欣顿培育影响了一批现在卓有成就的科学家,其中包括“卷积神经网络之父”、现 Facebook 人工智能实验室(FAIR)负责人杨立昆( Yann LeCun)。
杨立昆出生于法国巴黎,后来与欣顿一样走上了神经网络研究的“不归路”。同样经历人工智能寒冬的杨立昆经历过质疑和批评,甚至在团队研究取得成功的那天项目被解散。
将神经网络运用于计算机视觉在上世纪80年代的主流学界看来“并不科学”。哪怕到了21世纪初,其他学者仍不允许杨立昆其会议上发表论文。
几乎一夜之间,计算机视觉领域出现了爆炸式增长。随着计算能力的增强和互联网的海量数据,加之欣顿与杨立昆、约书亚·本吉奥等许多同行在过去十几年中踩过的坑,他们“信仰”的神经网络终于征服了世界。
在2012年斯坦福大学人工智能实验室主任李飞飞组织的 ImageNet 视觉识别挑战赛上,欣顿与他的研究生凭借“卷积神经网络”(CNN)一鸣惊人,不仅识别出了猫,还区分出了不同品种的猫。这样颠覆式的识别方式,准确率超过第二名东京大学10%以上,获得冠军。而自2015年起,人工智能在 ImageNet 的错误率已经低于人类水平。
同样是2012年,谷歌大脑的一名实习生 Quoc Le 从 YouTube 中获取了大量数据之后训练神经网络总结出一张图片,于是机器视觉中的“猫”就诞生了。深度学习一炮而红。次年谷歌收购了欣顿的初创公司DNNresearch,这位神经网络领域的先驱成了谷歌门下的“实习生”。
发笑
“我不能创造的东西,我就不了解。”
现在就职于谷歌人工智能实验室的伊恩·古德费洛(Ian Goodfellow)引用了物理学家理查德·费曼(Richard Feynman)的这句话,想要表达的却是“人工智能不能创造的东西,它就不了解。”
面对已经可以识别图像的人工智能,这位曾梦想成为一名作家的年轻人工智能研究者说:“如果一个人工智能可以基于逼真的细节来想象这个世界,学习如何想象出逼真的图像和逼真的声音,这将鼓励人工智能学习实际存在的世界的结构。”
2014年,还在加拿大蒙特利尔大学攻读博士的古德费洛构想出“生成对抗网络”(GANs)——生成逼真的模型“愚弄”人工智能。杨立昆曾称赞“生成对抗网络”(GANs)是“过去20年深度学习领域最酷的想法”。
在古德费洛的试验中,小狗图像被机器识别成鸵鸟,不同的物体都能被识别成飞机,甚至连下图中的高斯噪声也被识别为一架飞机。
他们将加过噪点的样本称为“对抗性样本”,对抗性样本的实际应用场景包括欺骗恶意软件检测器网络、欺骗通过远程托管的API(MetaMind、亚马逊、谷歌)训练的真实分类器等。
古德费洛在2016年10月份参加了 GeekPwn硅谷站,与来自谷歌的Alexey Kurakin博士现场分享了“对抗性图像在物理世界中欺骗机器学习”的成果。
如果仅仅用一张计算机生成的图片传给机器进行识别,这便剔除了外部环境中众多的不可抗干扰。于是,他们采用了白盒攻击模型(即在攻击者已经获得机器学习使用算法和参数的情况下进行攻击)。结果表明87%的对抗性图像在外接环境中仍能成功欺骗机器,因此对抗样本在真实环境下仍然有效。
此外,有研究表明对抗样本针对强化学习(Reinforcement Learning)同样有作用。在深度学习取得突破性进展的情况下,随着AlphaGo的成功,强化学习也得到了越来越多的关注。但是伯克利大学、OpenAI、宾大以及内达华大学等研究者发现强化学习智能体也能被对抗性样本操控。
造就
现在机器学习正处于风口浪尖,无论是“人工智能面临第三次寒冬”或者“奇点降临”的论调都不绝于耳。好在这些鼓吹、唱衰都还是人类干的。
个人助理、安防终端、自动驾驶、医疗诊断、电商零售、金融以及教育......人类将会被这些人工智能裹挟,当算法统治世界时,人类是否还有能力控制算法?
以史蒂芬·霍金、比尔·盖茨等为代表的众多科技界人士纷纷表示,人类应该警惕人工智能,超人工智能是对人类最大的威胁。伊隆·马斯克更是担心“人类是在召唤魔鬼”。
人工智能作为人类创造的程序,和人一样并不完美。不管是被人教坏的微软聊天机器人Tay,还是因为搜索特定职业图片而出现的性别歧视、需要人工干预的谷歌搜索,偏见依旧存在于人工智能。有的时候可能不是算法错了,而是样本的祸。
人工智能思考的边界在哪里、奇点何时降临,这些或许没人知道。但是黑客开始对人工智能发起挑战,如果机器仅仅是在“复制人类的创造力”,那么黑客要在它犯错误前制止它;如果机器拥有了“超越人类的创造力”,那些最出色的黑客依旧相信“任何事都是可能的”。
“我们现在是帮助人工智能成长,希望有朝一日,黑客可以成为保护人类的那群人。”碁震KEEN公司创始人兼CEO、GeekPwn发起人王琦近日在一个《人“攻”智能》的分享中如是说道。