欢迎光临
我们一直在努力

人工智能呼唤更好“治理”

记者 王硕

1931年,爱因斯坦在与加州理工大学的学生们交流时,充满深情地说:关心人的本身,应当始终成为一切技术奋斗的主要目标,以保证我们的科学思想的成果能够造福于人类,而不至于成为祸害。

人工智能是第四次工业革命的标志性技术,近年来智能化正在深刻改变我们的生产、生活方式,智能时代的大门已经缓缓开启。然而,人工智能在给我们带来更多惊喜的同时,也带来了公共安全风险、隐私侵权、数字鸿沟、责任困境、伦理失范等许多新挑战。

因此,人工智能治理这一概念应运而生。如何引导技术“负责任”地发展已成为全世界的共同诉求。

近日,在2021人工智能合作与治理国际论坛上,与会专家围绕“推动构建平衡包容的人工智能治理体系”开展讨论,探寻让人工智能安全、可靠、负责的造福全人类之路——

科技并不是存在于真空之中

毋庸置疑,我们正在进入“人机物”三元融合,万物互联的智能时代。

最近一段时间,受到全社会热议的“困在算法里的外卖小哥”、网络游戏沉迷、掌握用户数据和高级算法优势形成垄断性超级平台、信息茧房导致群体极化和网络暴力等问题,都在警示着我们——对于人工智能,如果利用得当,将大有裨益;但是,科技并不是存在于真空之中,也有可能使得现有问题进一步加剧。

联合国开发计划署驻华代表白雅婷举例说,人工智能的客观性仅在于其算法,而这些算法由人来编写,因此人类的偏见可能会被编入人工智能当中,从而延续偏见和歧视;另外,人工智能系统的有效性基于数据,这可能会成为滥用数据和侵犯个人隐私的动机。如果没有恰当的治理,这些技术的有害之处将对于人的生活构成有害的影响。

同时,从总体来看,在人工智能的发展中,目前发展中国家话语权较少;在国家内部,发挥人工智能潜能,只需要少数人获得的先进技能和专业知识,如果这种不平衡持续下去,会出现掉队的数字弱势群体,数字鸿沟将持续扩大。

在清华大学公共管理学院教授、清华大学智库中心主任苏竣看来,在这场人工智能掀起的人类社会剧变中,我们需要科学的方法来研究和应对科学技术带来的种种风险、问题和挑战。不但要关注技术本身,更要关注技术对社会的影响,需要做长周期、多学科、宽领域的观察、研究,通过实践的积累,通过实验去深刻理解人类社会转型的过程机理,全方位回应来自学术界,以及每个普通的人的关切。

“因此,政策制定者必须具备前瞻性的思维,不能仅解决当下的问题,还必须要预见未来的挑战。”白雅婷指出。

治理标准的统一并不容易

对于人工智能治理的路径,专家们已有共识。

中科院院士、清华大学校长邱勇指出,人工智能治理必须协同多元主体,经过多维目标,融合多元价值,加强全球合作与对话,构建平衡、包容的人工智能治理体系。

然而,这些原则的具体落地并不是那么简单。据统计,目前全世界已有160多套组织、国家等建立的人工智能道德和治理原则,但缺少将这些独立的倡议结合起来的框架和标准;且在数据、算法、算力、场景等方面面临许多挑战。

11月24日,联合国教科文组织在法国巴黎发布了《人工智能伦理建议书》,这是全球首个针对人工智能伦理制定的规范框架。

据世界工程组织联合会主席、中国新一代人工智能发展战略研究院执行院长龚克介绍,这个建议书的制定付出了艰辛的过程。

早在2020年年初,建议书就在网上公开征求意见。在当时意见基础上,在全球遴选了24人组成特殊专家组,其中考虑了性别平衡、区域平衡、学科平衡等;通过专家组多轮讨论和修改后,第一轮修改草稿在线征求意见,收到了来自90多个国家的5000多条意见;在此基础上继续修改,并在全球6个地区(涉及亚太、欧洲、非洲等),与涉及102个成员国代表开展在线协商;定稿后再由联合国教科文组织总干事发送给193个成员国征求意见,最终才正式通过。

龚克认为,“这体现了多利益攸关方开放参与规定制定过程,不仅为人工智能治理体系建立提供了重要基石,本身协商过程也建立了多边典范。”

事实上,当前我国已跻身人工智能水平的第一梯队,也肩负着参与国际治理规则制定的职责。

科技部副部长李萌表示,我国已成立了由15个部门构成的人工智能规划推进办公室,办公室设立新一代人工智能治理专业委员会,发布了相关治理原则和伦理规范;同时开展了长周期、跨学科的人工智能综合影响社会实验,部署了城市、农村、教育、医疗、能源、环境等30多个领域的场景实验研究;并依托领军企业布局了一批开放创新平台,依托地方建立了17个创新发展实验区。

作为我国新一代人工智能治理专业委员会主任、清华大学人工智能国际治理研究院院长薛澜指出,当前人工智能治理已从理念探讨走到了实践探索的前沿。近年来,专委会正致力于构建有效的治理框架和相关规则。

按照目前的研究成果,思路是构建“政府、企业、公众、大学与科研机构、媒体、非营利组织、国际组织”等多主体参与,以“底线思维、人本思维、发展思维、全球思维”为价值导向,以“算法、数据、算力、外部环境、场景”为治理对象,应用“宏观-中观-微观”多维治理工具的人工智能综合治理框架体系,通过“形成价值共识、多主体分工协作、治理理念迭代优化”等治理机制推动人工智能健康发展,促进人类福祉提升。

为人工智能发展划定“红线”

人们越来越认识到:人工智能不是万能药,它的好坏取决于使用人工智能的人及数据基础、治理标准等;而治理正是确保大船行稳致远的航向标。

为此,向着“平衡包容”的目标,各方都在努力前行,为人工智能发展画定“红线”。

龚克提出,目前不仅要发展人工智能的相关应用技术、开发更加有效的算法,还需要发展一批支撑治理的技术,如监督性技术,用于保护公平性以及隐私等。比如从社会中采集的数据,其实带有一定偏见,这不是社会的错,是现实社会固有的。但如果没有适当技术对数据进行“减偏”,公平无歧视原则可能就无法落地。因此,要着力强调发展一批监管性支撑技术。

李萌认为,人工智能技术应该将普遍适用与分类推进相结合,根据不同群体需求提出差异化选择,切实保护各相关主体合法权益,提高弱势群体的适应性,努力消除数字鸿沟;同时也要尊重和帮助弱势群体提供必要的替代方案,避免忽视、偏见、歧视。

邱勇提到了教育的意义,他指出,大学作为人类科技文明的重要策源地,不仅要在人工智能基础理论与技术前沿努力突破创新,也要进行科技向善的文化理念,塑造良善的人工智能价值伦理。

卡内基理事会资深研究员、清华大学人工智能国际治理研究院学术委员温德尔·瓦拉赫(Wendell Wallach)强调了新的国际合作方式的重要性。他认为,人工智能国际治理机制应该具有敏捷性、适应性、预见性、响应性和包容性,中美两国需要共同参与制定人工智能国际治理方案,将使其更具有可行性。同时,每个国家要处理好对国家安全和国际合作双重需求之间的关系,接受国际标准的同时,积极开展旨在应对新挑战的前瞻性对话。

不过专家们也提出,人工智能治理的目的不是限制其发展,而是要为了实现向善、造福人类的健康发展。

李萌指出,目前社会对人工智能的社会风险、伦理风险和法律风险的认识,有一些是基于理性的推演预判,也有一些是基于主观判断的臆想。他认为,应该秉持积极而负责任的态度,努力实现人工智能创新发展与有效规制之间的协调,技术边界拓展与应用范围限制之间的平衡,避免陷入伦理陷阱而阻碍前沿技术的研究与应用。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。