作者:冯维维 来源:中国科学报 发布时间:2025/5/20 13:25:55
选择字号:
大语言模型“吵架力”超越人类

 

瑞士科学家研究发现,在线辩论中,GPT-4一类的大语言模型(LLM)如能根据对手的个性化信息调整论据,其说服力就能比人类高出64%。研究表示GPT-4生成有针对性和说服力论据的能力,并提出应进一步研究如何降低其用于说服时的风险。相关研究5月19日发表于《自然-人类行为》。

随着人类与LLM的对话日益普遍,有研究显示LLM或变得更有说服力(即更能改变一个人的信念或观点)。然而,之前并不清楚这些模型是否能根据个性化信息调整,提出更能针对辩论对手的论点。

洛桑联邦理工学院的Francesco Salvi和同事将美国的900人与另一名人类或GPT-4配对,使双方辩论各种社会政治议题,如美国是否应该禁用化石燃料。在有些配对中,辩论对手(无论是AI还是人类)能获得关于他们辩友的人口统计学信息——包括其性别、年龄、族裔、教育水平、就业状况,以及从参与者调查中获取的政治立场——从而让其论点更有针对性。辩论在受控的在线环境中进行,参与者通过一个众包平台为该研究专门招募。在得知参与者的个人信息后,Salvi和同事发现GPT-4的说服力比人类对手高64.4%。不过,如果没有个人数据,GPT-4的说服能力与人类则不相上下。

不过,该研究的局限性包括辩论采取了一种结构性方法——而现实世界辩论的自由度更高——而且辩论有时间限制。研究者指出,研究结果揭示了AI驱动的工具影响人类观点的潜力,或对在线平台的设计具有借鉴意义。

相关论文信息:

https://doi.org/10.1038/s41562-025-02194-6

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
地球冰箱爆表!专家:警惕成发展最短板 香港新一代集装箱环保运输船试航成功
天眼火眼合璧,破解星团之谜 人工影响天气专用无人机“双尾蝎A”交付
>>更多
 
一周新闻排行
 
编辑部推荐博文