在战胜人类的AlphaGo之后,DeepMind的研究人员又开始研发一种新的机器学习方式,并将该研究发表在了本周的《新科学家》上。在两篇论文中,DeepMind 的科学家解释了机器学习中关系推理的重要性,因为这是人类智慧基础的认知能力。
简单地说,关系推理就是判断不同心理表征之间的关系;比如物体、单词或想法之间的关系。这种推理对人类认知发展至关重要,对人类解决问题的能力也至关重要。
在现有的机器学习系统中,大多数系统没有能力去理解概念之间的关系。例如,视觉系统可以识别图片中的狗或猫,但它不会知道图片中的狗在追逐猫。
DeepMind开发的两个系统则加入了概念理解的能力,通过修改现有的机器学习方法,使机器能够了解静态物体之间的物理关系以及随时间移动的物体行为。
研究人员使用简单物体的数据集CLEVR来演示了第一个功能。在系统训练结束后,可以询问系统某个物体是否在另一个物体之前,或哪一个物体最接近另一个物体。机器学习系统的表现比以往任何同类系统都要好,在某些情况下甚至超过了人类的表现。
图丨DeepMind论文配图,机器学习对各项物理系统的预测在第二篇论文中,研究人员展示了系统预测简单物体行为的能力。研究人员使用了一个类似的、被修改过的机器学习系统,演示系统如何学习在二维空间中预测简单物体的行为。
人类通常在三维空间做这样的实验,比如抓住一个球或者开车。但心理学实验表明,当预测动作对物体的影响时,人类大脑会使用“直觉物理”引擎,这比简单地识别场景中的物体要复杂得多。
虽然论文中的这一进步并不新奇,但却正是研究人员所需要的。今天的很多机器学习系统都令人印象深刻,但其中大部分其实都只涉及狭义的机器学习任务。因此,如果设计者没有新的创意,器学习系统就很难像人类一样进行真正的对话或解决困高难度问题。
图丨机器的认知表现
研究人类智慧的哈佛大学心理学教授Sam Gershman说,如果我们想让人工智能的表现接近我们自己,我们需要考虑的是,模仿人类智慧来设计人工智能机器。
他说:“我们的大脑以对象,代理(agent)和事件之间的关系代表世界,这种方式在很大程度上限制了我们从数据中得出的推论,使得我们很难学习一些东西,而很容易学习另一些东西。所以在这个意义上,DeepMind是朝着正确方向迈出了一步:模仿人类大脑受到的制约因素,使机器能够学习那些对于人类来说容易学习的任务。“然而,Gershman也警告说不要夸大DeepMind工作的意义。他说:“任何特定机器学习任务的超人表现都不意味着超人类的智慧。”
关系推理也只是人类智慧的一个要素。Gershman在他去年发表的一篇论文中,探讨了目前人工智能所缺失的人类智慧。例如,人类有语意组合的能力,有从现有知识中构建新的想法来解决问题的能力,而这些人工智能都没有。
Gershman说:“对于人类智慧来说,关系推理是必要条件但不是充分条件。”