但是最近出现的许多案例显示,就像所有颠覆性技术那样,机器学习被引入的同时,也出现了许多意想不到的挑战,有时候甚至产生错误、令人讨厌的、冒犯性的后果,与人类社会信奉的道德和伦理标准截然不符。
这些故事听起来可能很有意思,但它们却促使我们反思AI技术对未来产生的影响。将来,机器人和AI将承担起更重要的责任,甚至将为它们做出的错误决定负责。
在其核心领域,机器学习利用算法分析数据、提取模式以及学习和预测,并会基于收集到的见解做出决定。它已经成为我们日常生活中使用的许多技术的基石,比如搜索引擎、面部识别应用以及数字助理等。机器学习算法获得的数据越多,它就会变得越聪明。这也就是科技公司千方百计收集更多用户和消费者数据的原因。
但是最终,机器学习只会保持其获得的数据那样聪明。这其中存在一个问题,因为同样被用于训练机器学习算法的数据,也可能会让它变得邪恶或存在偏见。就像所有孩童那样,机器学习算法往往会选择迎合其开发者的品味和偏见。更复杂的是,许多公司都以非常隐秘的方式运行内部算法,并把它们视为商业机密。
机器学习初创企业Beauty.ai今年举行了世界上首场AI驱动的选美大赛。超过6000人递交了自己的照片,AI通过对称性、皱纹等因素评估这些人的魅力。这项比赛的原意是减少人类裁判的社会偏见,但结果令人感到失望。44位获胜者中,绝大多数都是白人,只有少数亚洲人,深色皮肤人种的获胜者仅有1人。1名研究人员解释称,问题是用于训练算法的照片样本在种族方面存在不平衡性。
这并非机器算法首次出现偏见问题。今年年初,一种语言处理算法被发现,在处理艾米丽、马特等听起来像白人的名字时,显然比处理贾马尔、埃博尼等黑人名字时更愉快。
此外,微软此前被迫关闭了其聊天机器人Tay。它被设计模仿十几岁女孩的行为,却被发现满口脏话。Tay原本被期望提取用户评论,通过处理它们学习如何做出个性化回应。但是用户似乎对教授它种族歧视和纳粹言论更感兴趣。
可是,如果这些发生在敏感情况下,比如某人的生命或自由受到威胁时,将会如何?ProPublica5月份的研究显示,在评估未来犯罪倾向时,佛罗里达州执法机构使用的算法对非洲裔的评分更高。
有关这类机器学习算法存在偏见的例子不胜枚举,包括谷歌算法将非洲裔标注为大猩猩,广告投放引擎更少向女性展示高薪职位,新闻算法推广假新闻和粗俗故事等。
在传统软件中,确定某个失误是用户错误还是设计缺陷非常简单。但是机器学习并不那么透明,最大的挑战之一就是难以确定责任。开发机器学习软件与传统编码完全不同,训练算法与编写代码同样重要。即使开发者也无法精确预测机器将会做出何种决定,有时候也会对结果感到惊讶。
当Facebook被谴责在“趋势主题”模块中存在政治偏见时,事情变得更加复杂,因为这个模块部分由机器学习驱动。当美国共和党总统提名人唐纳德·特朗普(Donald Trump)谴责谷歌调整其搜索引擎结果,试图抑制有关民主党总统提名人希拉里·克林顿(Hillary Clinton)的负面新闻时,做出透明解释和证明机器错误的确有点儿难。
当关键决定权被赋予AI时,事情将会变得更加敏感。举例来说,如果无人驾驶汽车撞倒1个行人,谁将被追究责任?司机(更精确地说车主)还是机器学习算法的开发者?
从数据库中根除这些偏见是开发公正的机器学习算法的关键,但是开发平衡数据库是非常复杂的任务。目前还没有任何相关规则或标准,可以用于评估用于训练机器学习算法的数据。有时候,研究人员利用和分享现成的框架和数据库,尽管里面存在各种偏见。
一个解决方案就是创造可共享的、受到监管的数据库,它不归任何单一实体所有,从而可预防任何人单方面操作数据。在这方面的显著努力就是AI合作组织(Partnership on Artificial Intelligence)的成立,Facebook、亚马逊、谷歌、IBM、微软以及机器学习创新领域的其他公司尝试解决AI和机器学习增长带来的恐惧。这个组织的目标包括,解决AI的伦理问题,确保AI被公开应用前接受多元化审视。
另一个有趣的努力是伊隆·马斯克(Elon Musk)创建的AI公司Open AI,其目标是令AI研究变得更透明,防止它变成作恶工具。
将来有一天,或许机器人会变得足够聪明,可以解释自己的行为,并纠正它们的错误。但我们据此目标依然有很长的路要走。到那时,人类的责任将是预防训练AI的人类负面倾向被无限扩大。