公式解决了人工智能复杂的道德决策

一份能够更有效地将道德准则纳入人工智能(AI)决策程序的算法蓝图已经开发出来。

通过马特·希普曼 2022年10月11日
图片由Brett Sayles提供

人工智能洞察

  • 一份将道德准则纳入人工智能决策程序的算法蓝图已经开发出来。
  • 为了考虑道德决策的复杂性,提出了一个数学公式和一系列相关的决策树。
  • 这项技术可以帮助机器,尤其是机器人,更好地运行,减少低效率。

一个跨学科的研究团队开发了一份算法蓝图,可以更有效地将道德准则纳入人工智能(AI)决策程序。该项目特别关注人类与人工智能程序交互的技术,例如在医疗保健环境中使用的虚拟助手或“看护机器人”。

北卡罗来纳州立大学科学、技术与社会项目副教授、相关论文的通讯作者维尔科·杜布耶维奇(Veljko dubljevic)说:“像看护机器人这样的技术应该有助于确保医院病人、老年人和其他需要健康监测或身体帮助的人的安全和舒适。”“实际上,这意味着这些技术将被置于需要做出道德判断的情况下。

“例如,假设一个看护机器人所处的环境中有两个人需要医疗援助。一名患者失去知觉,但需要紧急护理,而另一名患者的需求不那么紧急,但要求看护机器人首先对他进行治疗。护理机器人如何决定先帮助哪位病人?护理机器人是否应该治疗一个失去意识、因此无法同意接受治疗的病人?

杜布利耶维奇说:“以前将道德决策纳入人工智能程序的努力范围有限,而且主要集中在功利推理上,忽视了人类道德决策的复杂性。”“我们的工作解决了这个问题,虽然我以carebots为例,但它适用于广泛的人类-人工智能团队技术。”

功利主义决策注重结果和后果。然而,当人们做出道德判断时,他们也会考虑其他两个因素。

第一个因素是给定动作的意图和执行该动作的代理的特征。换句话说,谁在执行给定的动作,他们想要完成什么?它是善意的还是恶意的?第二个因素是动作本身。例如,人们倾向于认为某些行为,如撒谎,本质上是不好的。

所有这些因素都相互作用。例如,我们可能同意说谎是不好的,但如果一个护士为了优先治疗第二个更迫切需要的病人而对病人撒谎,提出令人讨厌的要求,大多数人会认为这在道德上是可以接受的。

为了解决道德决策的复杂性,研究人员开发了一个数学公式和一系列相关的决策树,可以整合到人工智能程序中。这些工具利用了一种叫做代理人、契约和后果(ADC)模型dubljeviic和他的同事开发了这个模型,以反映人们在现实世界中如何做出复杂的道德决策。

dubljevic说:“我们的目标是将ADC模型转换为一种格式,使其能够纳入人工智能编程。”“我们不仅仅是说这个道德框架对人工智能很有效,我们是在用计算机科学环境中可访问的语言来展示它。

“随着人工智能和机器人技术的兴起,社会需要伦理学家和工程师之间的合作。我们的未来取决于它。”


作者简介:马特·希普曼,北卡罗莱纳州立大学研究交流负责人