作者:郭英剑 来源: 中国科学报 发布时间:2026-4-21
选择字号:
在“怀疑一切”的时代,大学需重新证明“学习的意义”

 

■郭英剑

有一天,一位编辑朋友问我:“你那么拥抱人工智能(AI),那你的文章是用AI写的吗?”

看到这个问题,我想起了自己一个20余年的写作习惯,即在每篇文章末尾都会记录文章写作的时间与地点。我本想回复,看看我文章的写作时间与地点就知道答案了,但想了想还是回复道:“是我自己写的,不是AI写的。”

不作过多解释,是因为我深知解释再多,都像是在自证清白,反而给人一种越描越黑的感觉。当然,我也理解那位朋友的询问,因为就在前不久,我还看到一位语言学领域知名学者在朋友圈中写了这样一句话:“大量我们认为是真实的语言,其实都是大模型生成的。网络上近80%的文本都不是人写的。”

朋友的这个问题让我深思,因为它看似询问写作方式,实则指向了一个更深刻的变化——在AI时代,人们已经不再默认“表达背后一定是一个人”。

这绝不是一个小小的变化,而是一个结构性的转折。

语言的主体正在消失

回想并不遥远的过去,当你读到一篇文章时,会很自然地在脑海中构建一个“作者形象”。你可能不同意其观点,但会默认这个人的存在,并认为其对自己的表达负责。这种“表达-主体”的对应关系是现代社会信任的基础之一。

生成式AI的出现打破了这一点。今天,一篇逻辑严密、语言流畅的文章能在几秒钟内生成。于是,一个关键问题出现了——当语言不再可靠地指向一个主体时,表达意味着什么?

在我看来,如果语言可以脱离主体独立存在,它就从“表达”变成了“输出”。这不仅改变了写作,也改变了阅读。它把阅读的前提从“理解一个人”变成“判断一个来源”。如果只是文字,信任的动摇或许还局限在知识领域,而真正的断裂发生在多模态生成技术出现后。

过去,人类社会之所以能维持基本的信任秩序,源于“伪造”本身具有较高成本,而这些“成本壁垒”构成了信任的隐性基础。

AI使这些成本迅速坍塌。更关键的是,这些AI生成内容不仅可以使用,而且足够好。

这意味着我们进入了一个新的语境,不是“有人在伪造”,而是“任何东西都可能被伪造”。当“可伪造性”成为普遍前提时,真实性就不再是默认状态,而必须被额外证明。由此,信任不再是起点,而成为一个昂贵的过程。

信任为何会崩塌

有人会把这种信任危机归结为“技术过强”,但这只是表象。更深层的原因在于,技术正抽空人类社会赖以建立信任的“中介机制”。

什么是中介机制?现代社会,我们并非通过直接接触所有人来建立信任,而是通过一系列“中介”,比如作者身份、媒体机构、专业认证等。这些机制的作用是在陌生人之间建立可以延展的信任。

AI出现后,这些机制开始迅速失效——署名能伪造,内容可批量生成。当中介机制失效时,社会信任就失去了扩展能力,只能向内收缩。因此,我们看到了一种结构性的变化:信任不再是可以传播的,反倒变成必须亲自验证的东西。这恰恰是“信任崩塌”的真正含义。

在传统语境中,“怀疑一切”往往被视为一种极端立场,甚至是不健康的认知状态。但在AI时代,这种态度正变成一种理性选择。因为当环境本身不再提供可靠的信号时,信任就不再是美德,而可能成为一种风险。

当下,我们能清楚地观察到这个变化正在发生——人们对文章的第一反应不再是“内容如何”,而是“来源是否可信”;对视频的第一反应不再是“发生了什么”,而是“真实吗”;对声音的第一反应不再是“谁在说话”,而是“是不是合成的”。

这意味着人类的认知方式正从“理解世界”转向“验证世界”。

在我看来,这是一种深刻的退化。因为理解需要信任作为前提,而验证则建立在怀疑之上。当整个社会从“理解导向”转向“验证导向”时,人类的交流成本将急剧上升,认知效率将显著下降。更重要的是,人与人之间的关系将变得异常脆弱。

从“轻信任”走向“重信任”时代

在此背景下,我们看到一个看似矛盾、实则必然的趋势——技术越发达,人们越渴望面对面交流、对话乃至交锋。

这是因为在所有可被伪造的媒介中,“在场”仍是最难被完全替代的经验。这也恰恰意味着信任不再是“低成本的社会基础设施”,而重新变成了一种“高成本的人际资源”。

在我看来,这将深刻影响教育、商业、政治乃至日常生活。

我们必须承认一个无法回避的现实——AI不会退出历史,“可伪造性”也不会消失,一个可以轻易生成一切的时代已经到来。因此,问题不在于如何回到过去,而在于如何在一个无法回避怀疑的时代重新建立信任。

换言之,未来人与人之间的信任不再是自然生成的,也不再依赖单一来源,而是逐渐建立在三个相互支撑的层面之上。

其一,它是可追溯的技术与制度机制。当真实不再自证,它就必须被标记、记录和验证。无论是文本、声音还是影像,来源认证、生成记录、数字水印以及平台责任将成为新的基础设施。

其二,它是可识别的主体与责任承担。人类表达的价值不再只是“能否表达”,而在于“是否承担表达”。未来的信任将愈加依赖主体的稳定性与可识别性,而非单次内容的优劣。

其三,它是不可替代的真实在场经验。“在场”重新成为信任基础,面对面的交流、未加工的互动、不可剪辑的真实情境将成为人们重新建立信任的重要方式。

这三点也同时意味着人类社会正在从一个“轻信任时代”走向一个更为复杂的“重信任时代”。

高等教育将走向何处

如果说,AI正在重塑社会的信任结构,那么高等教育无疑是最早也最深刻受到冲击的领域之一。因为大学从来都不仅是知识生产的场所,更是信任生产的制度空间。

传统意义上,大学之所以能成立,依赖于几种基本信任——教师的讲授是真实的、学生的作业是独立完成的、研究成果是基于严肃探索的、学术共同体内部遵循基本的诚信原则。换言之,大学运行的前提并不是“没有问题”,而是大体可信。

如今,当学生能借助AI完成作业、论文乃至考试时,“学习”与“生成”之间的边界开始模糊;当文本可以被高质量生成时,“表达能力”不再等同于“理解能力”;当AI可以模拟学术写作时,“研究成果”也面临新的真实性挑战。这意味着传统的评价体系在失去原有的判别力。

于是,一个更为严峻的问题浮现出来:如果我们无法确认学生是否真正理解,大学在评估什么?

这不仅是技术问题,更是教育理念问题。如果大学继续沿用以“结果文本”为中心的评价方式,AI将不可避免地侵蚀其有效性;而如果一味加强技术监控,则又可能走向另一种极端——用不信任来维持信任。

这正是当前高等教育面临的深层困境。

因此,真正的出路或许不在于简单地“防范AI”,而在于重构教育的核心逻辑。

首先,需要从“结果导向”转向“过程导向”。比起一篇最终完成的论文,更重要的是学生如何提出问题、展开思考,并在讨论中修正自身观点。只有将学习嵌入可见的过程中,评价才不至于完全依赖“最终文本”。

其次,需要重新强调“在场性”的教育价值。课堂讨论、现场表达、即时回应,这些曾被视为效率较低的教学方式,在AI时代反而成为最难被替代的部分。教育不只是传递知识,更是一个人在场、思考、回应他人的过程。

最后,需要重新界定“能力”的含义。如果AI可以帮助完成表达,那么教育的重点就不应停留在“写得多好”,而应转向“想得多深”。提出问题、判断信息、整合复杂观点的能力将比单纯的表达能力更加重要。

因此,高等教育的真正挑战,并不是“如何避免学生使用AI”,而是在一个人人都可以借助AI的时代,如何重新证明“学习本身的意义”。

这将带来一场深刻的转型,它要求大学从“知识传授中心”转向“理解能力的培养场”;从“结果评价体系”转向“过程参与结构”;从“默认信任”走向“有意识地重建信任”。也正是在这个意义上,高等教育或许不只是被动承受这场信任危机的冲击者,更应成为重建信任的先行者。

重新理解“信任”本身

当然,真正值得思考的问题,还不只是机制如何重建、高校如何应对的问题,还有在这一时代,人类将如何重新理解“信任”本身。

过去,我们习惯于把信任当作一种背景,时刻存在却不被察觉。而今天,信任正在变得稀缺,于是它第一次从“隐形结构”变成“显性问题”。这迫使我们重新面对一个更为根本的命题——信任是否只能建立在“确定性”之上?当确定性不再可靠,人类是否仍然能够彼此连接?

答案或许并不在于消除不确定,而在于学会如何在不确定中建立有限信任。这或许是一种更成熟也更艰难的信任形态,即在意识到一切都可能被伪造之后,仍然选择为真实承担责任。

因此,AI时代真正的挑战并不只是技术问题,更是人的问题。当机器可以生成内容,人类必须重新定义自身位置;当表达不再稀缺,人类对表达承担的责任反而成为稀缺之物。也许,未来最值得信任的不再是“最完美的表达”,而是“最稳定的存在”;不再是“最流畅的语言”,而是“最愿意被验证的人”。

在我看来,AI不会终结信任,但它正在终结一种轻而易举的信任。它迫使人类走向另一种更缓慢、更昂贵,也更真实的关系形态——信任不再来自媒介的保证,也不再来自技术的表象,而是来自一个人长期、一致、可被辨认的存在。

这也提醒我们,大学之所以为大学,从来不只是传授知识,更在于培育一种可以被信任的理解力,一种能够经得起追问、能够回应他人,也能够对自身表达负责的能力。

(作者系中国人民大学全民阅读教育研究院院长)

《中国科学报》 (2026-04-21 第3版 大学观察)
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
云南发现八角属新种睡莲八角 科学家破解“体相溢流”之谜
金刚石/铜散热模组在国家超算平台部署 《科学》(20260409出版)一周论文导读
>>更多
 
一周新闻排行
 
编辑部推荐博文