作者:高雅丽,江庆龄 来源:中国科学报 发布时间:2024/11/25 16:29:56
选择字号:
梅宏院士:面对AI热潮,伦理治理要跟上

 

“智能是人类区别于其他动物的专有特征,特别是认知能力,我们可以接受机器在感知能力方面超越人类,但对机器认知智能的研发,需要高度审慎。从科技伦理的视角来看,我们为什么要去造出一个替代我们认知的东西?”11月22日,在以“跨越边界的科技伦理”为主题的第二届中国科技伦理高峰论坛上,中国科学院院士、北京大学教授梅宏直指当前数字技术面临的伦理挑战。

梅宏作主旨报告。主办方供图

  ?

从智能制造到智慧城市,从医疗健康到金融服务,以及当前大语言模型的火爆,人工智能(AI)风头正盛。梅宏认为,在当前的AI热潮中,泡沫太大,仍处于技术成熟度曲线的高峰阶段,喧嚣埋没理性,需要一个冷静期。

他强调,虽然基于当前的技术路径,大模型尚不能“无中生有”,做出超越人类预期的事情,但一味信奉“蛮力”、追求规模,也极易发展出在覆盖面和复杂度上人们难以掌控的“巨兽”。

数字技术与伦理困境

在经历了两个“春天”和两个“冬天”后,AI迎来了第三个“春天”,深度学习技术带来的一次次突破,不断刷新着人们对人工智能的认知。

但是,从Facebook数据泄露到大模型生成内容引发侵权纠纷和虚假信息传播,数字技术为人类社会经济发展带来好处的同时,也带来了数据隐私保护、算法偏见、责任认定等一系列伦理问题。

例如,当前大语言模型的技术路线,黑盒导致的不可解释性是其最大“罩门”。如果不加任何规制地大量应用,将可能导致人类知识体系面临严峻挑战。训练语料的质量缺陷、概率统计的内生误差等因素会导致大模型产生幻觉,生成错误内容;再加上人为干预诱导,极易生成虚假内容。

“通过算法,平台可以个性化推送内容,但也可能形成用户的信息茧房,我最近最大的困扰就是拿着手机却读不到我想读的有价值的内容。”梅宏表示,目前几乎所有网络平台都在AI算法和大数据驱动下运营,这就带来对算法和数据应用的有效监管问题,这些亟待通过建立完善的治理体系来加以解决。当涉及平台跨境时,还需要有相应的国际治理体系。

警惕AI技术“泡沫”

当前,社会对“AI+”或“AI for everything”抱有很高的期望,然而,现实情况却不尽如人意。

“雷声隆隆,雨点并不大。”梅宏坦言,“从当前的热潮中,我看到了太多‘炒作’和‘非理性’导致的 AI‘过热’现象,也对当前AI发展技术路径多样性的欠缺萌生了一些担忧。”

“大语言模型的成功依赖于人类长时间积累的庞大语料库,文生视频的成功也依赖于互联网上存在的海量视频。然而,其他行业的数据积累尚未达到这个量级。获取全数据,关键是跨越足够的时间尺度。”梅宏表示,AI的应用还需要经历一段时期的探索、磨合和积累,才可能迎来繁荣。

“在我看来,AI当前的问题有3个:泡沫太大,仍处于技术成熟度曲线(hype cycle)的高峰阶段,喧嚣埋没理性,需要一个冷静期;以偏概全,对成功个案不顾前提地放大、泛化,过度承诺;期望过高,用户神化AI的预期效果,提出难以实现的需求。”梅宏说。

面对AI技术发展及其应用的现状,梅宏建议,在尚搞不清如何应用、用到何处时,不妨先积累数据,“可采尽采、能存尽存”。

尚难走向“通用”人工智能

那么,大语言模型能走向“通用”人工智能吗?梅宏认为,从基本原理来看,目前的大语言模型没有跳出概率统计这个框架。

梅宏并不认为现在的AI有所谓的“意识”或者知识涌现能力。以大语言模型为例,模型本身无法产生新的东西,其生成的内容取决于对大量文本内容的统计,如果某些内容反复出现,它们大概率就会将之视为“合理存在”的内容。

“就这个意义而言,大模型可被视为是由已有语料压缩而成的知识库,生成结果的语义正确性高度依赖于数据的空间广度、时间深度以及分布密度,更高度依赖于数据的质量。”他提到,学术界的研究更应关心大模型构建过程的可重复性和可追溯性,尽可能保证结果的可解释和可信任。

“大胆预测大预言模型的未来,作为压缩了人类已有的可公开访问的绝大多数知识的基础模型,大语言模型在未来需要像互联网一样,走向开源,全世界共同维护一个开放共享的基础模型,尽力保证其与人类知识的同步。”梅宏说。“这至少也是表达自己的一种期望”。

完善科技伦理治理机制

“发明技术的最终目的是为了让人类的生活变得更好,毫无疑问应该充分考虑技术可能带来的伦理问题。”梅宏表示,在AI快速发展的热潮下,需要对可能的风险进行研判,并提醒科技工作者时刻牢记科技向善、以人为本。

随着数字技术的发展,科技伦理治理也应当跟上。梅宏强调,目前应当完善科技伦理治理体制机制,明确数字技术领域的治理重点和安全护栏,对数字技术进行分级分类治理,同时建立健全AIGC(人工智能生成内容)的主动披露标注制度并开展相关技术研究。

那么,数字技术领域是否应该存在研究禁区?梅宏认为,在基础研究阶段一般不做限制,涉及到对人的认知能力调控、违背人的自由意志的研究应列为禁区。在技术和产品应用阶段,要根据具体场景及影响来确定。

“例如大规模远程监控、自主决策的社会评价体系、操纵个人意识和行为并造成个人或他人身体或心理伤害的技术,以及超越或替代人的认知能力为目标的AI技术研发,应当受到限制。”梅宏说。

同时他表示,数字技术领域的研究禁区应该建立动态调整机制,适时调整伦理审查的复核清单。

此外,他呼吁建立生成内容的披露标准机制,建立涵盖大模型开发者、创作者、使用者的标注责任机制;鼓励多条技术路线推进大模型生成内容标注技术研发;完善大模型内容审核制度规范和检测技术开发;推进相关标准和规范制定并国际化。

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
首张另一星系中的恒星照片出炉 《自然》(20241121出版)一周论文导读
清华这位院士搭建了一座室外地质博物园 科学家完整构建火星空间太阳高能粒子能谱
>>更多
 
一周新闻排行
 
编辑部推荐博文