作者:王方 来源:中国科学报 发布时间:2025/12/16 16:06:34
选择字号:
AI顶会数据泄露事件再起风波

 

近期,一场数据泄露事件曝光了某全球顶级人工智能(AI)会议数千篇论文匿名审稿人的身份信息。据《科学》报道,这一事件已导致部分审稿人遭到骚扰与威胁。与此同时,众多AI研究者担忧,该领域的飞速发展正将同行评议制度推向崩溃边缘。

早在11月11日,网络上便流言四起,称全球数千场计算机科学会议赖以开展双盲同行评议的平台——开放评审系统(OpenReview),因软件漏洞出现安全隐患。这次漏洞让任何人只需通过一个简单的查询指令,就能绕过防护机制,获取审稿人的身份信息。

11月27日,国际学习表征大会(ICLR)工作人员发现该漏洞并立刻通知OpenReview。平台在一小时内定位并修复了漏洞,但为时已晚——计划于2026年4月在巴西里约热内卢召开的ICLR上,近万篇论文的作者及审稿人相关数据已被窃取,并在网络上大范围传播。这是同行评议数据泄露事件中规模最大的案例之一,也是OpenReview自成立以来首次发生此类事故。

图片来源:Davide Bonazzi/Salzmanart


多名研究人员表示,部分审稿人收到威胁信息,被要求修改评议结论。ICLR随后证实了审稿人遭威胁的情况,但强调这些行为并非出自论文作者之手。ICLR2026高级委员会主席、美国康奈尔大学的Bharath Hariharan指出,存在第三方人员冒充论文作者的情况。

OpenReview在11月30日的声明中表示,工作人员对此次数据泄露事件“深感痛心”,并补充道“信任与匿名是我们学术社区的基石”。该平台称,在其服务的3200余场学术会议中,约97%未受此次事件影响,但仍有大约50场会议的相关数据被波及。

事件发生后,科研界对OpenReview仍表示信任。全球规模最大的AI学术会议之一——神经信息处理系统大会(NeurIPS)的运营方,日前公开宣布向该平台注资50万美元。OpenReview负责人、美国马萨诸塞大学阿默斯特分校的Andrew McCallum在一份声明中表示:“这不仅是对OpenReview基础设施的投资,更是对整个AI领域同行评议制度未来韧性与创新能力的投资。”

此次数据泄露事件发生之际,AI领域正面临论文投稿量暴增。投稿中既有AI生成的文章,也不乏高中生为丰富简历而炮制的课题。海量投稿的涌入,正让传统同行评议制度不堪重负。美国加州大学伯克利分校的Hany Farid表示:“整个评议体系正在崩塌。如果继续这样发展下去,社会大众将不再信任我们。这是在自毁根基。”

曾任职于谷歌大脑的软件工程师Yaroslav Bulatov称,这次事件是“一个难得的机会,得以窥见学术界是否存在抱团勾结、互给好评的真实证据”。

McCallum表示,针对这场“攻防战”,OpenReview已增设多项防护措施,以防范合谋舞弊与身份盗用。“但归根结底,同行评议中的欺诈行为源于社会问题。在任何一个飞速发展的社区中,责任共担、诚信自律与相互信任的原则都面临被弱化的风险。”

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文
SSI ļʱ
图片新闻
>>更多
 
一周新闻排行
 
编辑部推荐博文