欢迎光临
我们一直在努力

医患矛盾如何解?美国人请来机器人调解员帮忙

医患矛盾如何解?美国人请来机器人调解员帮忙

机器人可以在感情变得复杂的时候进行伦理建议。

最近关于机器人和伦理的讨论大多围绕着自动驾驶汽车是否会决定碾过最近的小猫,或者是离它稍远一点的装满小狗的篮子,或者类似那样的事情。机器人能否在遇到新情况时做出道德决定,这是很多人仍在研究的问题,但在规则更清晰的情况下,机器人更容易做到合乎道德,同时也不太可能碾过可爱的动物。

上个月,乔治亚理工学院的研究人员发表了一篇论文,题为“在医患关系中,机器人调解员的道德管理者”。他们的想法是,机器人将成为我们日常生活的一部分,它们比人类更擅长密切关注事物,而且不会分心或无聊,并且一直会如此。因此,对伦理问题有理解的机器人将能够观察病人和看护人之间的互动,当他们发现事情并没有按照应有的方式进行时,他们就会进行干预。这很重要,我们需要它。

在美国,大约有一百万人患有帕金森症。像外骨骼和机器人伴侣这样的机器人系统已经开始帮助人们进行身体康复和情感支持,但我们还需要一段时间才能让那些有能力为帕金森患者提供他们所需帮助的机器人。与此同时,病人严重依赖于医护人员,这对双方来说都是一个挑战。帕金森症对人与人之间的互动尤其棘手,因为肌肉控制的减少意味着患者常常难以通过面部表情来表达情感,这可能会导致误解或更糟糕的事情。

为了测试机器人调解者是否能在此类案件中提供帮助,乔治亚理工学院的研究人员——JaeeunShim、RonaldArkin和MichaelPettinati——培养出了一位干预伦理的管理者(IEG)。它基本上是一套算法,对特定的道德规则进行编码,并决定在不同的情况下该怎么做。在这种情况下,IEG使用音量和面部跟踪等指标来评估在患者与护理者的互动中“人的尊严是否因为他人的不当行为而受到威胁”。如果发生这种情况,IEG规定机器人应如何以及何时进行干预。

为了体现他们的IEG,研究人员使用了Nao人形机器人,它具有良好的感知能力(一个麦克风阵列和摄像头),可以进行语音合成(用于干预)。然后,他们在两个研究生之间进行了模拟的、脚本化的互动,来观察机器人会做出怎样的反应:

在项目的最后一部分,研究人员招募了一群人(可能会使用该系统的老年人)来观察这些互动,并描述他们对这些互动的反应。这是一小群参与实验的人(9个,平均年龄71岁),但在这个阶段,IEG仍然是一个概念验证,所以研究人员主要对定性的反馈感兴趣。根据研究参与者的回答,研究人员能够强调一些重要的信息,比如:

安全是最重要的

“我认为任何保护病人的事情都是好事。”

这很有价值。在这里,这是合适的,因为它提供了真实的信息,而不仅仅是命令。

机器人不应该指挥或判断

“我觉得指挥会让机器人处在判断的位置。我认为应该更多地问这样的问题,比如“我能为你做些什么?”但是机器人正在给病人做判断。我不认为这就是我们想要机器人的原因。

他说:“病人不应该因为离开或忘记做机器人的事情而受到批评。”“护理者应该更多地参与到这个工作中来。”

“如果机器人站在那里,‘让我冷静下来’,我就会打他。”

是的,如果不是因为有人想要打机器人,它就不是一项社会机器人研究。他们认为,研究人员把这些反馈牢记在心,并与专家们一起调整语言,比如把说的话“请冷静”变为“让我们平静下来”,这就好多了。他们还计划通过整合生理数据来更好地检测病人和护理者的情绪状态,从而改善系统,提高机器人的干预精确度。

我们应该强调,机器人不可能取代人与人之间的互动以及情感,而且这也不是这个项目的目的。机器人,或一般的人工智能系统,是有效的调解者,确保护理人员和病人彼此之间有道德基础和相互尊重,帮助改善关系,而不是取代他们。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。