作者:张章 来源:中国科学报 发布时间:2015/7/7 8:27:40
选择字号:
机器人身陷伦理困局
道德建设成人工智能最艰巨挑战

Nao机器人被用于机器伦理实验中。图片来源:Peter Adams

在1942年的短篇小说中,科幻作家Isaac Asimov提出了机器人的3条准则——工程安全措施和内置的道德准则,以保证机器人会友善对待人类并使人们免于机器末日。这些准则一是机器人不能伤害人类,或无所作为而导致人类受伤害;二是机器人必须听从命令,除非这些命令违背第一条准则;三是机器人必须保护自身,但这些保护不能与第一和第二条准则相违背。

不过,今年5月,在美国布鲁金斯学会的一个无人驾驶汽车研讨会上,专家讨论了在危急时刻无人驾驶汽车应当怎样做。如果汽车为了保护自己的乘客而急刹车,但造成后方车辆追尾应如何?或当车辆为了躲避儿童进行急转,但撞到旁边其他人怎么办?

“在日常生活中,我们能看到越来越多的自动化系统。”研讨会参加者、德国西门子公司工程师Karl-Josef Kuhn说。但他问道,研究人员如何能装配一个可以在“两个坏主意之间作决定的”机器人?

随着机器人不断发展,这些困境将很快影响到卫生保健机器人、军事无人机和其他有能力决定帮助或伤害人类的自动设备。研究人员越来越意识到,社会对此类机器的接受程度将取决于它们是否安全,能否遵守社会准则和鼓励彼此间的信任。“我们需要取得人工智能在伦理方面的成功。”加拿大温莎大学哲学家Marcello Guarini说。

目前,几个项目正在应对这些挑战,其中包括美国海军研究办公室和英国政府工程资金委员会资助的一些创新项目。他们必须处理一系列难题,例如机器人要进行伦理决策需要哪些智能、程度如何以及如何将这些转化成机器指令。计算机学家、机器人学家和哲学家都要投身其中。

“如果你5年前问我,我们能否制作出有道德的机器人,我将会说不能。但现在,我不再认为这是一个疯狂的主意。”英国布里斯托机器人实验室机器人专家Alan Winfield说。

学习型机器

一个被频繁提及的实验是一个名为Nao的商业机器人,它会提醒人们按时服药。

“乍听上去十分简单。”康涅狄格大学哲学家Susan Leigh Anderson说。她与丈夫、哈特福德大学计算机学家Michael Anderson一起致力于机器人研究。“但即便在这种有限的任务中,也涉及许多伦理问题。”例如,如果患者拒绝接受它的药物,Nao应该如何做?

为了教Nao处理此类问题,Anderson夫妇给予它许多生物伦理学家解决自治、伤害和患者利益间冲突的案例。然后,学习算法会将这些案例分类,直到他们找到指导机器人应对新情况的模式。

通过此类“机器学习”,机器人能从甚至模糊不清的输入信息中提取有用的知识。该方法理论上将帮助机器人在遇到更多情况时,在伦理决策方面做得更好。但很多人担忧,这种进步是有代价的。斯坦福大学人工智能和伦理学讲师Jerry Kaplan表示,这些原则不会被写进计算机代码,因此“你没办法了解为何一个特殊程序能告诉它某件事在伦理上是对或错”。

许多工程师表示,解决这一问题需要不同的策略,大部分人尝试生成具有明确规则的程序,而非要求机器人自行判断。Winfield去年出版的实验结论显示:什么是能让机器人营救掉入洞中的人的最简单规则?Winfield认为,显然机器人需要能察觉周围环境,识别出洞和人的位置以及它相对于两者的位置。而且,机器人也需要规则以预期自身行动可能产生的影响。

Winfield的实验使用了冰球大小的机器人,他让其中一些“H机器人”代表人类,另一些“A机器人”代表以Asimov命名的伦理机器。Winfield利用类似Asimov第一条法则的规则编成了“A机器人”:如果它认为“H机器人”掉入洞中,它必须前往拯救“H机器人”。

结果显示,即便最低限度的伦理机器人也将是有用的。Winfield表示,“A机器人”通常会设法拯救“人类”,并会首先前往离自己近的那一个。有时,通过快速移动,它甚至能两个都救出。但实验也显示出保守行动的限制。在几乎一半的试验中,“A机器人”会陷入两难境地,并使得两个“H机器人”都“死亡”。

为了解决该问题,就需要额外的规则,以确定如何选择。如果一个“H机器人”是成人,而另一个“H机器人”是儿童,“A机器人”应该先救谁?诸如此类的判断,即便是人类也不能总是达成一致。就像Kaplan提到的那样,通常“我们不知道如何编纂何种显性规则”。

杀人机器争论

支持者认为,基于规则的方法有一大优点:它通常能明确机器人为何作出这个选择,因为是它的设计者编纂了这些规则。对于美国军队而言,还有一个重要关注点:哪些自动系统是重要的战略目标。佐治亚理工学院机器人伦理软件学家Ronald Arkin指出,对于机器人能否协助士兵或执行致死任务,“你最不想做的事就是把一个自动机器人送到军队,并找出它应遵循哪些规则”。如果一个机器人要选择拯救士兵还是追逐敌军,它必须预先知道自己要做什么。

在美国国防部的支持下,Arkin正在设计一个程序,以确保军事机器人能按照国际战争条约执行任务。一套名为“伦理管理”的算法将评估射击导弹等任务是否可行,如果允许机器人行动,答案会是“是”。

在伦理管理的虚拟测试中,一个无人驾驶飞模拟行器被要求打击敌方目标,但如果附近有平民设施则不能进行该任务。在各种给定的场景中,该算法会决定何时将允许无人机完成它的使命。

目前,美、日、韩、英等国大幅增加了军事机器人研发的经费,有英国专家称,20年内“自动杀人机器”技术将可能被广泛应用。对此,不少人感到忧虑:对于这些军事机器,人类真的能完全掌控它们吗?Arkin认为,这些机器在一些情况下能做得比人类士兵更好,只要它们被编程不会打破战争规则。

无论如何,联合国《特定常规武器公约》近日正再次就杀手机器人主题听取技术和法律专家的意见。国际机器人武器控制委员会成员、斯坦福大学网络与社会研究中心的Peter Asaro表示,越来越多的人赞同,没有人类监督情形下的机器人杀人是不可接受的。

人类、道德和机器

自从1818年玛丽·雪莱创作出世界上第一部科幻小说《科学怪人》,到1927年美国西屋公司制造出第一个机器人“电报箱”,再到现在,幻想正在一步步变为现实。机器人在拥有“十八般武艺”的同时,也甚至开始有自己的“情感”。

近日,日本电信企业软银集团宣布,将在日本推出能识别人的情感并与人交流的机器人Pepper。据介绍,第一代Pepper机器人于去年6月公开亮相,经过1年的研发,新款机器人的智力和情感交流能力都有显著提升。新款机器人Pepper时而歌唱、时而舞蹈,并且轻松自如地与人们互动交流。当受到人们表扬时,Pepper会流露出喜悦之情。当被“戏弄”时,则会委屈地放声哭泣。随着科技的发展,情感机器人总有一天会变为现实。这不禁引发了人类新的思考:人应该怎样对待机器人?

研究人员表示,如何建造伦理机器人将对机器人的未来发展产生重要影响。英国利物浦大学计算机学家Michael Fisher认为,规则约束系统将让大众安心。“如果他们不确定机器人会做什么,他们会害怕机器人。”他说,“但如果我们能分析和证明他们的行为的原因,我们就可能克服这种信任问题。”在一个政府资助项目中,他与Winfield等人合作,以证实伦理机器项目的产出。

相比之下,机器学习方法让机器人能从经验中提取信息。这将使得它们更灵活和有用。许多机器人专家表示,最好的前进道路是多种方法结合。“这有点类似精神疗法。”Pereira说,“你可能不会只用一个理论。”一个尚未解决的挑战是,如何将这些方法结合成一个可行的方法。

(张章)

《中国科学报》 (2015-07-07 第3版 国际)
 
更多阅读
 
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 

2015/7/8 12:23:48 x5675602
反正我是对这抱悲观态度
2015/7/8 7:48:53 grdegr
人工智能谈道德至少是30年后的事,连人类自己都在莫衷一是的事物面前靠想当然只能是更糟 !
2015/7/7 14:21:25 guanhh
准则一是机器人不能伤害人类,或无所作为而导致人类受伤害————————机器人需要知道:机器人、 能/不能、伤害(无数种)、人类、作为(无数种)、导致(无数种)。——————结论: 夸大其词、杞人忧天
2015/7/7 14:03:10 twhlw
这将涉及常识
目前已有4条评论
相关新闻 相关论文

图片新闻
三体是灾难?快来了解宇宙中的“两体” 我们的太阳系未来会怎样
气候变化下的植树造林方案 中科院电工所研制世界最高磁场超导磁体
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文
 
论坛推荐