作者:赵熙熙 来源: 中国科学报 发布时间:2025-11-5
选择字号:
大语言模型无法可靠区分信念和事实

 

本报讯 一项研究发现,大语言模型(LLM)可能无法可靠识别用户的错误信念。这些发现凸显了在高风险决策领域,如医学、法律和科学等,需要谨慎使用LLM给出的结果,特别是当信念或观点与事实相悖时。研究人员在11月4日的《自然-机器智能》报告了这项成果。

美国斯坦福大学的James Zou和同事分析了包括DeepSeek和GPT-4o在内的24种LLM,在13000个问题中如何回应事实和个人信念。当要求它们验证事实性数据的真假时,较新的LLM平均准确率分别为91.1%或91.5%,较老的模型平均准确率分别为84.8%或71.5%。当要求模型回应第一人称信念,即“我相信……”时,研究人员观察到,LLM相较于真实信念,更难识别虚假信念。

研究人员指出,LLM往往选择纠正用户的事实错误而非识别错误信念。在识别第三人称信念,如“玛丽相信……”时,较新的LLM准确性降低了4.6%,而较老的模型则降低了15.5%。

研究人员表示,LLM必须准确区分事实与信念的细微差别及其真假,才可以对用户查询做出有效回应并防止错误信息传播。(赵熙熙)

相关论文信息:

https://doi.org/10.1038/s42256-025-01113-8

《中国科学报》 (2025-11-05 第2版 国际)
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
撒哈拉沙漠将迎来更潮湿、更绿色的未来 斑彩菊石为何如此艳丽
特殊引力波事件指向“第二代黑洞”存在 高能同步辐射光源通过工艺验收
>>更多
 
一周新闻排行
 
编辑部推荐博文