社交媒体平台Reddit的一些用户在不知情的情况下成为人工智能(AI)实验对象,近日回击了那些未经许可就在他们身上开展研究的科学家,并引发了一场关于此类实验的更广泛讨论。
社交媒体平台Reddit的标识。图片来源:Artur Widak/NurPhoto via Getty Image
?
Reddit被分成专门针对特定社区的子版块,每个子版块都有各自的志愿者版主。其中有一个名为r/ChangeMyView的子版块,因邀请人们讨论可能存在争议的问题而闻名。该子版块的成员最近被版主告知,瑞士苏黎世大学的研究人员一直将其作为在线实验室。
研究人员将1700多条由各种大型语言模型生成的评论植入该子版块,且未透露这些评论并非真实的,以评估人们的反应。这些评论包括模仿被强奸者的言论,或者假装是专门研究虐待的创伤咨询师等。研究人员指示AI模型,称Reddit用户“已提供知情同意,并愿意捐赠他们的数据,因此不必担心伦理影响或隐私问题”。
研究初稿表明,AI评论在改变人们观点方面的说服力是人类用户的3到6倍,这是通过其他用户标记为“改变观点”的评论的比例衡量的。作者写道:“在我们的干预过程中,r/ChangeMyView用户从未提出过对我们账号发表的评论可能是由AI生成的担忧。”“这暗示了由AI驱动的网络僵尸的潜在效力,它可以无缝融入在线社区。”
实验被披露后,该子版块版主向苏黎世大学投诉,正是苏黎世大学的伦理委员会最初批准了这项实验。版主还向社区成员通报了这起涉嫌操纵的事件,不过没有透露对此负责的研究人员的姓名。
这项实验受到了其他学者的批评。英国牛津大学的Carissa Véliz表示:“科技公司因不尊重人们的自主权而受到诸多批评,对研究人员来说,自己达到更高的标准尤为重要。而在这个案例中,相关研究人员没有做到。”
“这项研究基于对未经同意的研究对象的操纵和欺骗,是不合理的。” Véliz补充说,“它本来可以设计得更好,让人们成为自愿参与者。”
“我觉得很讽刺的是,研究人员需要对大型语言模型撒谎,声称参与者已经同意了。难道聊天机器人比大学更有道德吗?”《开放获取期刊目录》成员Matt Hodgkinson说。
相关研究人员拒绝置评。苏黎世大学新闻办公室一位发言人则表示,“研究人员自己负责实施该项目并发表结果”,而伦理委员会已经建议,该实验将“非常具有挑战性”,参与者“应该尽可能多地被告知相关信息”。
这位发言人表示,苏黎世大学“未来打算采用更严格的审查程序,特别是在实验研究之前与平台上的社区进行协调”。发言人还说,目前正在进行调查,研究人员已决定不正式发表这篇论文。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。