欢迎光临
我们一直在努力

人工智能引发道德问题 科技巨头成立伦理委员会

随着人工智能的发展,机器人正应用到更为广泛的领域,并承担了许多人类的决策职责,这引发了全球对于社会公平、伦理道德的高度关注。科技巨头也认识到了人工智能可能带来的道德风险,并成立了伦理委员会加强应对。

俗话说:权利越大,责任越大。人工智能技术正变得越来越强大,那些最早开发和部署机器学习、人工智能的企业现在也开始公开讨论其创造的智能机器给伦理道德带来的挑战。

在《麻省理工科技评论》的EmTech峰会上,微软研究院的常务董事埃里克·霍维茨(Eric Horvitz)说:“我们正处于人工智能的转折点,人工智能理应受到人类道德的约束和保护。”

霍维茨与来自IBM和谷歌的研究人员仔细讨论了类似的问题。大家都很担忧是,人工智能最近取得的进步使其在某些方面上的表现超越了人类,例如医疗行业,这可能会某些岗位的人失去工作的机会。

IBM的研究员弗朗西斯卡·罗西(Francesca Rossi)举了一个例子:当你要使用机器人去陪伴和帮助老年人的时候,机器人必须遵循相应的文化规范,即针对老人所处的特定文化背景执行特定的任务。如果你分别在日本和美国部署这样的机器人,它们将会有很大的差异。

虽然这些的机器人可能离我们的目标还很遥远,但人工智能已经带来了伦理道德上的挑战。随着商业和政府越来越多地依靠人工智能系统做决策,技术上的盲点和偏见会很容易导致歧视现象的出现。

去年,一份ProPublica报告显示,一些州使用的风险评分系统在通知刑事审判结果中对黑人存在偏见。同样,霍维茨描述了一款由微软提供的商用情绪识别系统,该系统在对小孩子的测试中表现很不准确,原因在于训练该系统的数据集图片很不恰当。

谷歌的研究员玛雅·古帕(Maya Gupta)呼吁业界要更加努力地提出合理的开发流程,以确保用于训练算法的数据公正、合理、不偏不倚。她说:“很多时候,数据集都是以某种自动化的方式生成的,这不是很合理,我们需要考虑更多因素以确保收集到的数据都是有用的。想想我们仅从少数群体中选样,即使样本足够大,这就一定能确保我们得到的结果很准确吗?”

去年一年,无论是在学术界还是在工业界,研究人员对机器学习和人工智能所带来的伦理挑战做了大量研究。加州大学伯克利分校、哈佛大学、剑桥大学、牛津大学和一些研究院都启动了相关项目以应对人工智能对伦理和安全带来的挑战。2016年,亚马逊,微软,谷歌,IBM和Facebook联合成立了一家非营利性的人工智能合作组织(Partnership on AI)以解决此问题(苹果于2017年1月加入该组织)。

这些公司也正在各自采取相应的技术安全保障措施。古帕强调谷歌的研究人员正在测试如何纠正机器学习模型的偏差,如何保证模型避免产生偏见。霍维茨描述了微软内部成立的人工智能伦理委员会(AETHER),他们旨在考虑开发部署在公司云上的新决策算法。该委员会的成员目前全是微软员工,但他们也希望外来人员加入以应对共同面临的挑战。Google也已经成立了自己的人工智能伦理委员会。

实施了这些项目的公司大致认为它们不需要政府采取新形式来实现对人工智能的监管。但是,在EmTech峰会上,霍维茨也鼓励讨论一些极端的结果,这可能会导致一些人得出相反结论。

在二月份,霍维茨组织了一场研讨会,他们详细地讨论了人工智能可能带来的危害,比如搞乱股票市场,干扰选举结果。霍维茨说:“如果你积极主动一点,你可能会想出人工智能将产生的某些不好的结果,并能够提出相应的机制阻止它们的发生。”

这样的讨论似乎引发了其中一部分人的恐慌。古帕也因此鼓励人们去考虑人类应该如何决策,使这个世界变得更加道德。

她说:“机器学习是可控制的,是精确的,是可用统计学来衡量的。并且,这里存在着很多让社会变得更加公正、更加道德的可能性。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。