如果选定目标时无需人类决策,我们的世界将变得危险丛生。机器人会脱离人类的控制,自己做出生死攸关的决定。但有些国家已经开始在战场上使用无人武器了。
机器人无法真正理解人类生命的价值,因此赋予它们决定权会损伤人类的尊严。图为 Foster-Miller公司生产的TALON SWORDS作战机器人,配备了多种武器。
据国外媒体报道,参与《特定常规武器公约》的一百多个国家将于明年围绕禁止“杀手机器人”这一议题展开讨论。在近日于日内瓦举办的、五年一度的审查大会上,《特定常规武器公约》的123个成员国商定,将于明年正式开始着手解决由无需人类操控便可自动选择并攻击目标的武器系统所带来的挑战。此前专家曾警告称,我们能对这一技术加以控制的“时间已经不多了”。
“参与此次日内瓦会议的各国政府在遏制杀手机器人的研发方面取得了重大进展,但我们的时间已经所剩无几。”人权观察组织(Human Rights Watch)的武器部主任、“阻止杀手机器人”运动的共同发起人史蒂夫·古斯指出。“一旦这些武器被研发出来,我们就无力阻止了。我们必须趁现在发布禁令,才能先发制人。”
在第五届联合国特定常规武器公约审查大会上,世界各国一致同意,将在明年的联合国大会上围绕禁止致命性自主武器的议题展开为期两周的正式讨论。会谈将于明年4月或8月进行,已有88个国家同意出席。这些武器尚未问世,但武器技术正朝着自动化的方向迅速发展。越来越多的人担心,新技术会导致人类放松对使用致命性武器的管控。
“随着人工智能技术不断进步,机器人能够自主选择并攻击目标的可能性也在迅速增加。”人权观察组织研究院邦妮·多彻蒂指出,“全自主武器,又名‘杀手机器人’,正在迅速变成现实。这些武器可以用于海陆空作战,将对武装冲突和执法造成严重的威胁。支持者认为杀手机器人的出现必不可少,因为现代作战需要快速移动,并且如果用机器人代替人类参战,就能减少士兵与警方伤亡。但杀手机器人对人类的威胁将大大超过为军事或执法行动带来的好处。如果选定目标时无需人类决策,我们的世界将变得危险丛生。机器人会脱离人类的控制,自己做出生死攸关的决定。造成巨大伤害和平民伤亡的可能性也会因此增加。且无人会为此负责。使用全自主武器会带来巨大的道德、法律和责任风险,因此我们必须提前禁止它们的研发、生产和使用。最好的方法便是以国际法的形式,禁止研发缺少人类必要控制的武器。”
机器人无法真正理解人类生命的价值,因此赋予它们决定权会损伤人类的尊严。图为MQ-9“收割者”号侦察机。
《钢铁侠2》中的作战机器人也许不日便将成为现实。专家表示,各成员国同意在2017年围绕致命性自主武器系统开展正式会谈具有至关重要的意义。在加强人类对武器的管控问题上,裁军法已有先例在前。
按照现有的国际刑法,人类操控员在大多数情况下将无需为武器自主运行时造成的伤害承担责任。除非此人存心用全自主武器犯案,否则让其负责就是不公平的,在法律上也不成立,因为操控员无法预防机器人的行为,也无法对其进行惩罚。而向全自主武器的编程人员和制造商追责也是困难重重,因为他们可以上诉称,这些武器被别人用在了错误的地方。
例如,美国规定大多数武器制造商无需负法律责任。要想证明某个产品存在需要制造商负责的严重缺陷,也需要达到很高的标准。此外,其它国家的受害者通常缺少起诉国外公司的渠道和资金,这也将降低对犯罪行为的震慑力度。
在4月于日内瓦举办的联合国大会上,94个国家提议针对“致命性自主武器系统”开展正式会谈,讨论《特定常规武器公约》是否该对此类武器系统加以限制。在12月举办的审查大会上,公约成员国共同商定了接下来的工作日程。各成员国同意在2017年围绕致命性自主武器系统开展正式会谈具有至关重要的意义。
在加强人类对武器的管控问题上,裁军法已有先例在前。例如,国际社会已经广泛接受了禁止使用生化武器和地雷的公约,因为人类无法有效控制这些武器造成的后果。而世界各国如今也应当禁止全自主武器的使用,因为此类武器也会给人类带来类似的、甚至更加严重的威胁。
各国应围绕解决全自主武器的问题展开谈判,缔结新的国际合约,把大家一致关心的问题落实为实际行动。为取得实质性的商议结果,至少应留足几周时间进行谈判。虽然新国际法的诞生往往经年累月,但各国应加快步伐,应对自主武器带来的威胁。我们必须好好利用此次审查大会提供的机会,否则后果将难以承受:给予机器人高度自主权,将使人类陷入前所未有的严重危机。