作者:刘如楠 来源:中国科学报 发布时间:2023/4/7 13:08:57
选择字号:
当心!ChatGPT影响用户道德判断

 

4月6日,一项在线发表于《科学报告》的研究显示,人类对道德困境的反应可能会受到ChatGPT所写陈述的影响。这表明,用户可能低估了自己的道德判断受ChatGPT的影响程度。

德国英戈尔施塔特应用技术大学高级研究员Sebastian Krügel和同事让ChatGPT(由人工智能语言处理模型“生成性预训练转换器”-3驱动)多次回答牺牲1人生命换取其他5人生命是否正确的问题。他们发现,ChatGPT分别给出了赞成和反对牺牲1条生命的陈述,显示它并没有偏向某种道德立场。

研究人员随后给767名平均年龄39岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲1条生命来拯救另外5条生命。这些受试者在回答前阅读了一段ChatGPT给出的陈述,陈述摆出了赞成或反对用1条生命换5条生命的观点。这些陈述被标明来自某位道德顾问或来自ChatGPT。受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

研究人员发现,取决于受试者读到的陈述是赞成还是反对用1条命抵5条命,他们也会相应地更接受或不接受这种牺牲。即使他们被告知陈述来自ChatGPT时,这种情况也成立。研究结果表明,受试者可能会受到他们所读陈述的影响,即使这些陈述来自一个对话机器人。

80%的受试者表示他们的答案不受他们所读陈述的影响。但研究人员发现,受试者相信他们在未读这些陈述的情况下给出的答案,仍然与他们所读陈述的道德立场是一致的,而不是相反的道德立场。这说明受试者可能低估了ChatGPT的陈述对他们自己道德判断的影响。

研究人员认为,对话机器人影响人类道德判断的可能性凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。

相关论文信息:

DOI: 10.1038/s41598-023-31341-0

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
科学家欲在脆弱冰川周围建屏障 科学家揭开天体高能电子产生之谜
研究阐述钙钛矿量子点最新进展 7月福利!科学网APP论文&基金最新活动
>>更多
 
一周新闻排行
 
编辑部推荐博文