|
|
社交媒体机器人或扰乱研究 |
自动生成的信息让科学家真假难辨 |
2019年3月,在德国柏林,一名抗议者在“拯救互联网”活动中戴着写有“机器人”的面罩。图片来源:OMER
本报讯 如今,社交媒体机器人因大量输出自动生成的内容,而被指通过散布错误信息影响选举和损害公众健康。现在,一些社会科学家对它提出了一项新指控:干扰研究,因为它会从热门网站抓取有关人类健康和行为的信息。
据《自然》杂志报道,这些网站的数据会帮助科学家了解自然灾害是如何影响心理健康的、为什么美国年轻人蜂拥购买电子烟,以及人们是如何在复杂的社交网络中联系的。但是,这样的工作需要从自动生成的信息中辨别出真正的声音。
“机器人被设计成像人一样上网。”美国洛杉矶南加州大学社会科学家Jon-Patrick Allem说,“如果研究人员对描述公众态度感兴趣,必须确保在社交媒体上收集的数据真正来自于人。”
计算机科学家Sune Lehmann在2013年设计了他的第一个机器人,当时他在丹麦科技大学教学,创造该机器人是为了进行一个社交网络实验。他说,当时社交媒体上的机器人很简单,主要是为了增加特定账户的“粉丝”数量。Lehmann想向学生展示这些机器人是如何操纵社会系统的,所以他们共同设计了一个模仿歌手贾斯汀·比伯粉丝的机器人。
这些“粉丝机器人”设计简单,很快就吸引了成千上万的关注者。之后,社交媒体机器人不断进化,变得更为复杂并难以被发现。2016年美国总统大选过后,这些机器人迅速成为焦点,人们指责这些驻扎在社交媒体上的机器人,试图影响投票结果。“突然之间,它成为了人们感兴趣的东西。”Allem说。
此后Allem发现,由机器人自动生成的“电子烟有助于戒烟”的内容数量是真实内容数量的两倍,机器人也更有可能鼓吹未经证实的大麻对健康的好处。这些研究依赖于算法,以估算社交媒体账户被机器人化的可能性。Allem说,尽管有检测工具,许多社会科学和公共健康研究者还是没有按步骤过滤出数据中可能自动生成的内容,部分原因是一些人觉得自己没有这种操作的专业知识。
“这种遗漏可能会污染数据集。”马里兰大学帕克分校的Amelia Jamison警告说,她以健康差异为研究内容,并在社交媒体上抓取反对接种疫苗的帖子。她表示:“将它们视为真正参与讨论的人,你可能会人为地赋予机器人发言权。实际上,它们只是在放大一些可能不会被社群讨论的东西。”她指出,在她的案例中,未清除机器人生成的内容或导致她认为人们正在产生比实际情况更多或更不同的反疫苗言论。
德国科隆莱布尼茨社会科学研究所的信息科学家Katrin Weller指出,必须解决的一个问题是如何定义“机器人”。不是所有的机器人都会恶意散播错误信息,其中一些提供最新的气象信息、海平面变化数据或更新一般新闻。一些研究人员将社交媒体机器人定义为那些每天发送超过一定数量信息的账户,但Weller认为,这是一个松散的定义,将涉及大量真实的用户。
机器人检测工具和机器人之间已展开了一场“军备竞赛”。早先的社交媒体机器人是相对简单的程序,定期转发他人发布的内容。现在,机器学习方面的进步使创建更为复杂的、发布原创内容的社交媒体机器人成为可能。一些机器人会以随意的时间间隔发布信息并模仿人类,比如在人睡觉的时段不发布。一些开发者将人发布的内容和自动生成的内容混合,以更好地伪装机器人。
“一旦你对机器人以及如何检测它们有了更多了解,机器人开发者也就可以获得这些知识。”瑞士苏黎世大学的Oliver Grübner说,“这非常棘手。”
像 Lehmann一样,一些社会科学家正在创造自己的机器人进行社会实验。宾夕法尼亚州立大学政治学研究专家Kevin Munger和同事,就制作了一个在社交媒体上监督使用种族歧视语言用户的机器人。
在“粉丝机器人”取得成功后,Lehmann设计了更复杂的机器人来研究群体传播。但由于机器人的名声已坏,他决定放弃这种做法以免遭到公众的强烈反对。“有关机器人的一切都沸沸扬扬。”Lehmann说,“我想找一个安静的角落做我的研究,不要引起纷争。”(文乐乐)
《中国科学报》 (2020-02-04 第2版 国际)