虽然谈论这样的大灾难可能有些牵强,但人工智能的一个更符合实际的后果已经存在,并值得认真关注:人工智能的道德影响。
人工智能在某种程度上是可行的,因为复杂的算法能够识别、记忆和关联相关数据。尽管这样的机器处理已经存在了几十年,但现在的不同之处在于,强大的计算机处理着数千兆字节,并实时提供有意义的结果。此外,有些机器可以做人类和其他智能的专属领域:自主学习。
正是这种自动化学习带来了一个关键问题:机器能学会道德准则吗?
作为一名学习科学方法的研究人员和一个沉浸在道德决策中的伦理学家,我知道,人类要同时驾驭这两个迥然不同的领域是很困难的,更难以想象计算机算法能让机器的行为符合道德准则。
学术界和商界都使用实证科学来确定其相关性和因果关系,这类研究的成果是获得大量的客观信息,例如,抵押贷款发放机构的算法可能会发现,边缘借款人对广告的反应最为灵敏,这表明在他们最喜欢的足球队输掉一场大大比赛后,他们的利率会有所提高,数据处理计算机可以识别这种关联性,并学会投放相关广告。
然而,道德层面的选择并没有问一个行动是否会产生一个有效的结果,它问的是,这是否是一个好的决定。
换句话说,不管功效如何,这是正确的做法吗?这种分析并没有反映一个客观的、数据驱动的决策,而是一个主观的、基于判断的决策。
在一个被边缘化的、情感脆弱的目标市场上投放广告,对这家抵押贷款公司来说可能非常有效,但许多人会质疑推广的道德性,人类可以做出这种道德判断,但数据驱动的计算机如何得出同样的结论呢?这其中就包括了对人工智能的主要担忧。
个人经常在道德准则上做出道德决定,这些准则包括正直、公平、诚实和尊重,在某种程度上,人们通过正式的学习和思考来学习这些原则,然而,生活经验才是主要的启蒙老师,这些经验包括个人的实践和对他人的观察,有些人会更进一步,认为这些价值观是与生俱来的,也就是说,我们生来就有这些价值观。
那么,制造出来的计算机能够具有一种正直的观念吗?编程是否包含公平的理念?算法能学会尊重吗?对于机器来说,模仿主观的、道德的判断似乎是不可思议的,但如果存在这种潜力,至少有四个关键问题亟待解决:
应该使用谁的道德标准?
尽管有一份共同遵守的伦理原则的候选名单,但个人对这些原则的诠释往往有所不同,例如,关于体面与不雅的语言和服装的定义,就有很多不同的观点。
机器能谈论道德问题吗?
尽管人们可能认同不同的道德标准,但他们往往通过讨论和辩论来解决这些分歧,或者有时通过与外部当事人进行接触,科技如何复制这种自由流动的对话,更重要的是,是否愿意接受和解呢?
算法能把上下文考虑进去吗?
道德决策的一个特点是,它具有高度的细微差别,例如,在大多数情况下,如果一家公司的产品供应不足且需求非常旺盛,那么公司就可以提高价格,然而,如果这款产品是一种救命药品,而行业的竞争让该公司成为唯一的供应商,那么整个国家的经济衰退都会给目标市场带来额外的财务压力,计算机是否能识别这种特定的信息,并对极其特殊的情况作出主观评价?
谁应该负责任?
卷入组织丑闻的人往往会把矛头指向别人,试图以此来开脱自己,那么,当将这个错误追溯到一个自学机器时,会发生什么呢?如果一台电脑不能承担责任,谁应该承担这份责任——是制造机器的公司、编写软件的公司,还是使用它们的公司?更重要的是,具体到哪些人应该对此负责?
令人鼓舞的是,人工智能已经对许多人的生活产生了积极的影响,而且令人兴奋的是,我们可以想象,更先进的应用将会成倍地增加这种积极影响。
同样,发展技术的人也必须培养“道德可持续性”,在未来,我相信选择正确的道德观念将被编码成人工智能。