2013年,距离自己作为共同作者之一完成的一篇稿件——文章指出美国民主党候选人通过略微向右调整其经济政策可以获得更多选票——已经过去了5年,纽约市哥伦比亚大学的Andrew Gelman非常苦恼地了解到,他的数据分析中发现了错误。在尝试重复这篇稿件分析结果的过程中,一个名叫胡阳阳(音译)的研究生发现,Gelman在分析一个变量时把符号弄错了。
Gelman随即迅速发表了一个勘误声明,表示在未得到纠正前,该论文中的所有关键部分都是错误的。
今天,在回顾这篇论文出错的原因时,Gelman把他的错误归咎于人类大脑天生的不可靠性。“结果看起来非常合理。”他说,“很多时候,当存在这种编码错误时,你得出的结论就是那么荒唐可笑。所以,如果你知道哪些地方可能发生了错误,然后你回头去核查直到找到问题;但是如果你没有察觉到这样的错误,你就很容易错过它。”
这是科学上最大的问题,然而讨论它的人却极少:即便一个诚实的人,也会因此成为一个自欺的高手。人类的大脑很久以前在非洲大草原上得到进化,在那里早期人类很容易做出对熟果子在哪儿或者天敌在哪里出现等关于生存问题的合理设想。但是躲避狮子的妙招并没有被传承到现在的实验室中,在这里要被授予终身教席职位,就需要借助对大量多维数据的分析。在今天的环境中,如果人们轻而易举地推断出结论,随机出现错误的概率将非常高。也就是说,不加质疑地忽略其他的潜在结论,而去接受“看似合理”的结果,就会让人们误入歧途而不自知。
信任危机
由于人们未能了解自己的偏见,从而致使科研成果不能重复,因此产生了信任危机,统计学家、斯坦福大学Meta研究创新中心的John Ioannidis说。这些事件背后可能并非是学术造假。今年早些时候,一个试图重现100项心理研究成果的项目,最终仅使其中1/3的论文再现。2012年,加州千橡树安进生物技术公司的研究人员报告称,在53篇关于肿瘤学和血液学的地标性研究成果中,他们仅能重现其中的6项。2009年,Ioannidis和同事表示,在18项微阵列基因表达研究中,他们只能重现其中的两项。
尽管几乎不可能记录研究人员在数据分析方面“自我愚弄”的例子有多少,但是这些研究成果的不可再现性均需要作出解释。以上述100篇心理学研究论文的重现性实验为例,如果人们假设做出这些成果的绝大多数研究人员是诚实、务实的,那些只有无意识情况下发生的偏见才能够解释这些大量出现的问题。“这是一个对研究成果进行研究的伟大时代。”Ioannidis说,“大量的科学研究涌现出大量的科学成果,然而其中也有大量的错误和偏见等着我们去研究。因为,我们非常希望可以找到更好的方式应对这些错误。”
“当诸如此类的不可再现性危机出现时,也为我们提供了改进科学工具的新机遇。”斯坦福大学社科学家Robert MacCoun说。这种情况此前也曾出现过,20世纪中期,科学家已经认识到,实验者和研究人员经常会无意识地改变他们的行为,使之与预期相符合。正因为发现了这一点,双盲标准才诞生。
“人们忘记了,当我们谈论科学方法时,我们所指的并不是一件完成的产品。”加州大学伯克利分校天文物理学家Saul Perlmutter说,“科学是我们创造愚弄自我和避免愚弄自我之间的一场竞赛。”因此,研究人员试图用各种创新方式去除数据分析中的偏见,这其中也会碰到与竞争对手进行合作、研究尚未开始但文章已然发表以及处理有意造假数据等各种问题。
认知偏见
尽管自从人类开始进行科学研究以来,人类大脑的认知偏见就一直存在,但是一些重要的情况已经发生了改变,心理学家、弗吉尼亚州非营利组织开放科学中心执行主任Brian Nosek说,他一直致力于增加科学研究的透明度和可再现性方面的工作。今天的学术环境比以往竞争都更加激烈。“作为一名研究人员,我不会有意做出误导性的结果。”Nosek说,“但是我的研究结果却有着出现错误的风险。”尤其是考虑到大脑喜欢发现那些它想要的结果。
存在认知偏见的另一个原因是多得惊人的多元数据集的到来,这些数据集经常在海量随机噪音中藏匿着一些错误信号。而统计方法却很难发现这些数据,想要通过人脑发现它们显然更难,统计学家、得州大学MD安德森癌症中心统计学家Keith Baggerly说。正如他在去年9月北卡罗来纳州举办的一次生物信息学会议上所说的那样:“当我们开始分析50个或是成百上千个变量时,我们的直觉往往会干扰分析。”
其中,在早期研究阶段,研究人员经常碰到的一个陷阱是“假性近视”:研究人员会聚焦收集那些仅仅支持一项假设的证据,而忽视了寻找反对该假设的证据,因此错过了其他的解释。“如果人们觉得一项假设是正确的,那么他们就会试图去回答那些使之成立的答案。”费城宾夕法尼亚大学心理学家Jonathan Baron说。
而在数据核对阶段则存在着另外一个陷阱:对细节关注的不对称。这种情况又被称为不确认偏差——当人们对期待的结果轻松放行,而对那些主观感觉不对的结果严加审查时,就会出现这种情况。“当数据看起来和此前的评估结果不匹配时,我们会想道,‘哦,天哪!我在这里是不是犯了错误?’”MacCoun说,“这个时候,我们不会意识到可能我们也需要纠正别的地方的错误。”
解决办法
在这些陷阱中,认知偏见都在制约着科学的加速器:即发现潜在的重要科学关系的过程。这些偏见会给科学发现“刹车”,如减缓科学发现进程,对科学发现持怀疑态度以及让科学走进死胡同。
其中的一个解决方法就是重新恢复使用一项老传统:明确地思考竞争性的假设分析,如果可能,应该对竞争性的假设进行试验,对两种假设进行对比。这种方法亦称为强推理法,它可以有效避免认知偏见的“假性近视”。此外,当科学家可以通过观察作出更明晰的解释时,也能够降低他们凭直觉作判断的倾向。
另一种日益受到关注的解决方法就是开放科学。在这种理念下,研究人员可以共享研究方法、数据、计算机模型以及中央资料库中的研究结果。一般来说,Nosek解释说:“我在如何分析数据及选择哪些信息作报告上具有非常大的灵活度。这也造成了利益冲突,回避这个问题的唯一方式是事先把我的双手约束好。然后通过分析和规划报告减少认知偏见的影响。”
另外一种去除偏见的程序在物理学领域具有很长的应用历史,但是在其他学科领域却鲜为人知:即盲数据分析。其观点是,不知道与渴望的结果有多靠近的研究人员,往往更难发现他们无意识中寻找的是什么。
进行盲数据分析的一种方法是编写程序建立一个选择数据集,例如把随机噪音或隐藏的偏移加入其中,把参与者调换至不同的实验组或是隐藏参与者统计类别。然后,研究人员像往常那样处理这些造假数据,而计算机则忠实地运算真实数据。研究人员并不知道他们的研究结果是科学宝藏还是瓦砾,只有到了最后,他们去除这些干扰,才能看到真实的结果。最终,任何对分析结果进行的修饰都是明显的欺骗。(红枫)