作者:艾林 来源:中国科学报 发布时间:2017/8/4 10:17:37
选择字号:
无人驾驶汽车或可像人类作出道德决策

 

德国奥斯纳布吕克大学认知科学研究所的研究人员,利用沉浸式虚拟现实技术,对人类驾车时作出的道德决策和行为做了一场实验,并将研究结果发布在了《行为神经科学前沿》杂志上。

研究人员将实验情景设定在有雾的一天,实验参与者模拟驾驶一辆汽车行驶在典型的郊区道路上,此时他们会遇到突然间出现的无生命物体、动物或者人类,他们必须要在这几种对象之中选择撞上哪个、躲避哪个。参与者的行为数据被统计模型获取,并推导出一系列规则。这项研究表明,在不可避免的交通碰撞事故发生时,对于人类、动物或无生命物体的生命价值,人类是有伦理判断的,而这些判断能够通过算法建立模型。

该论文的第一作者莱昂·苏特菲尔德说,到目前为止,人们普遍认为,人类的道德决策往往是根据事发时情境来确定的,因此它不能用算法进行模拟或描述。“但我们的发现恰恰相反,在进退两难的情境下,实验参与者会依据对人类、动物或无生命物体生命价值的判断来进行反应,根据人类这种生命价值观,我们可以建立人类行为的模型,然后通过算法植入机器中。

目前,人们对于无人驾驶汽车和其他人工智能机器的行为仍有争论,这项研究结果则会对这些争论产生重要影响,尤其在发生不可避免的意外情况下。比如,德国联邦交通运输和数字基础设施(BMVI)最近发布了20条与无人驾驶汽车相关的伦理原则。其中一条是,如果一个孩子突然冲到马路上,为了躲避孩子,汽车就必须撞到人行道,但此时人行道上恰好有一个成年人。那么,无人驾驶汽车会选择撞上孩子,因为他导致了这次重大风险,所以失去了得救的资格。但是否所有人都会做出这样的选择?

研究人员高登·皮帕说,既然现在已经知道机器能作出类似人类的道德决策,那么赶紧对这些伦理问题进行讨论是非常必要的。“我们需要讨论,自动驾驶系统是否应该接受这种价值判断,如果应该,它是否应该模仿人类的决策,又是否应该遵循人类的道德理论呢?如果答案是肯定的,那么万一它的判断出现错误,谁又应该负责任呢?”

“首先,我们需要决定是否将道德价值观植入机器的行为准则中来。其次,如果植入的话,机器是否应该像人类一样行事?”研究人员彼得·柯尼希解释说。

研究人员表示,现在,无人驾驶汽车只是个开始,医疗机器人和其他人工智能设备正变得越来越普遍。他们警告说,人类现在处于一个新时代的开始,在这个时候,我们要制定明确的规则,否则机器将摆脱人类的束缚,自己作出决定。(艾林编译)

《中国科学报》 (2017-08-04 第3版 科普)
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 
SSI ļʱ
相关新闻 相关论文

图片新闻
银河系发现巨大黑洞 史上最亮伽马射线暴来自一颗坍缩的恒星
中国天眼揭秘宇宙“随机烟花” 导师:年年审毕业论文,总有这些问题!
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文
 
论坛推荐