■李正风
AI for Science是指人工智能(AI)赋能科学研究,目的是依托AI技术的进步提升科研能力、促进科学发展。AI对人类认知行为的技术性替代不断加强,从肢体感官上升到大脑,进而渗透到人类认知行为的不同环节。换言之,在认知和决策方面,人类把一部分功能或“权力”让给了AI系统。
在走向智能化的过程中,除了机器学习和大语言模型的运用,还需要结合特定领域的科学理论设计以及新模型、新算法的开发。凭借足够的算力支持,AI技术能够跨越时空,整合不同学科领域积累的丰富经验和数据,进行高效模拟与计算。
AI技术的谱系很长,并且在不断进化,同时还需要一系列数字技术和基础设施作为支撑。因此,AI for Science中“唱主角”的不只是大学或科研机构,还包括一些企业。这使得AI for Science成为一种变革更彻底、影响更深远的技术性替代。这种技术性替代意味着更高的技术壁垒,会在科学知识生产能力上形成更大、更难以超越的代际差异。生成式AI就是一个典型案例,其给科学知识生产带来了颠覆性影响。
生成式AI带来伦理挑战
2023年10月,《自然》发布的一项调查结果显示,全球超过31%的博士后研究人员经常使用ChatGPT。早在2022年底,美国斯坦福大学校报《斯坦福日报》进行的一项调查显示,17%的学生曾使用ChatGPT完成学期作业和考试,这也是后来一段时间内美国大学教授反对在大学中使用ChatGPT的原因。
截至目前,人们对生成式AI应用于科研的态度不断变化,从最开始的坚决反对到逐渐允许尝试,再到鼓励合规使用。如今,已经没有高校或期刊坚持一定不能使用ChatGPT等生成式AI,但由此带来的科研伦理问题不可忽视。
首先是生成式AI与学术不端的联系。2023年,《自然》对1600名研究人员进行了一项调查,发现68%的受访者表示,AI将使剽窃变得更容易,也更难被发现。生成式AI在统计分析时,对于结果一致性和应用更高级的统计方法存在局限性,不具备高级学科必要的专业知识,不能在前沿问题上给出准确答案。最令人担心的是,一旦虚假的学术论文进入公开的学术数据库,再想对其进行清理会变得非常困难。由此可见,这类学术不端不仅影响知识生产,还影响所有基于这些知识成果进行的决策。
其次,生成式AI会对科学家的职业伦理造成影响。以往,科研人员是知识产品的直接负责人,对生产的知识负有直接且唯一的责任,承担知识或技术产品带来的风险。但AI技术和人类知识生产者形成了一种前所未有的新型人机关系,未来可能难以严格区分使用者与其依赖的AI工具。另外,当学生能更加熟练、更有技巧地使用生成式AI时,师生关系也可能发生颠覆。
更为重要的是,生成式AI生成知识产品的过程所蕴含的技术特征与科学家的职业伦理要求存在冲突。比如,来自数字健康领域的学者对生成式AI能否捕捉到护理学科的道德价值观与核心原则表示担忧,因为护理学强调对患者的同情、关怀、尊重,但生成式AI作为一种技术工具,在这种伦理关怀上是无知的。
此外,生成式AI对于人类学术创造力的影响值得高度关注。一些学者认为,ChatGPT等生成式AI的使用会导致学术创造力丧失,致使学术独创性原则受到挑战。
同时,AI可能导致科研中产生新的不平等。在AI for Science的时代,新的不平等表现在不同领域、国别、年龄、职业、学历等因素上。获得和使用AI技术的差异,会导致教育和科研领域新的分化和分层。
长时段、包容性的“社会实验”
如何在科研中合规使用AI,是一项多样性、长时段的“社会实验”。比如,美国哈佛大学认为,随着技术迭代和发展,其社会影响将会在较长时间内呈现出比较复杂的局面,需要人们在这场“实验”中探索怎样更好地实践。哈佛大学将AI的使用权交给全体师生,并且保留学校根据技术迭代和教学实验发展调整政策的权利。
事实上,没有任何一种伦理原则能够解决当下人类遇到的所有问题,多种伦理立场并存以及和利益相关者的磋商至关重要,新的实践智慧将在这一过程中凝练而生。要在使用AI新技术的多元、包容的“社会实验”中发现好的实践模式,识别可能出现的社会伦理问题。要防止极端认识的产生,如过度将AI放在崇高的位置、过度轻视AI以压制多元探索的可能,尤其警惕用过去的经验在未来的挑战中做简单裁决。通过这样的“社会实验”,人们会找到与AI相互协调的更好方式。
对于AI带来的学术不端,需要进行有效的识别和深层治理,充分利用技术本身应对技术带来的风险或许是一个不错的思路。应该加快开发生成式AI的检测技术,防止科研中的技术滥用。要坚持精准治理,完善对利用生成式AI代写论文、数据造假等科研不端行为的监管体系。
防止AI技术滥用
对于科研人员而言,在具备AI胜任力的同时,还必须具备AI时代普遍的伦理素养。同时具有技术素养和伦理素养已经成为科研智能化时代防止AI技术滥用的内在要求。如欧洲一些大学已提出详细的AI使用原则,包括大学支持学生和教员培养良好的AI素养,教员应该具备支持学生在学习过程中有效且适当地使用生成式AI的能力,调整教学评估并纳入生成式AI的道德使用,支持平等获取,确保学术严谨性和诚信得到维护等。
AI的发展也为人们反思人类认知过程提供了良好契机,使科学家认识到以往研究工作中可以通过技术手段提高效率和质量的部分,以及真正不可替代的部分,即人类创造力真正之所系。
在这个过程中,探索科研场景下AI技术的价值对齐是不可忽视的工作。科研规范已经相当明确且得到广泛认同。然而,要使技术真正符合这些规范,仍有许多问题需要解决,也需要开展更多前瞻性研究。
(作者系清华大学教授,本报见习记者蒲雅杰根据其在第二届科技伦理高峰论坛上的主旨报告整理)
《中国科学报》 (2025-02-06 第3版 综合)