|
|
人工智能也有“偏见” |
科学家称AI是人类现有文化的延伸 |
学习人类写作的计算机能自动区分一些职业词汇的男女性别。
图片来源:Benedetto Cristofani/@Salzmanart
人工智能(AI)的一个最大前景是没有琐碎的人类偏见的世界。其想法是利用运算法则会给男性和女性平等的工作机会,用大数据预测犯罪行为可回避政治监管中的种族偏见。但一项新研究表明计算机也会产生偏见。特别是当它们向人类学习时,当算式“狼吞虎咽”地收集大量人类书写的文本词义时,它们也采用了非常类似人类的思维模式。
“别想着AI是什么公正的圣母。”英国巴斯大学和美国普林斯顿大学研究共同作者 Joanna Bryson说,“AI已经成为我们现有文化的延伸。”
这一工作受到一种叫作内隐联想测试(IAT)的心理工具的启发。在IAT中,词汇会在计算机屏幕上闪过,人们对它们做出的反应表明潜意识的关联。例如,美国黑人和白人会更快地将“Brad”和“Courtney”与“快乐”和“日升”相联系,而把名字“Leroy”和“Latisha”与“憎恨”和“恶心”相联系。
为了验证机器“思想”是否具有同样的偏见,Bryson和同事开发了词向量联想测验(WEAT)。他们从一套已经建立的“词向量”——基本上是计算机基于词汇通常出现的上下文对一个词汇的定义——开始。因此,“冰”和“水汽”有着类似的向量,因为两个词汇经常会出现在与“水”相关的词汇中,而极少出现在与“时尚”相关的词汇中。
WEAT测量的并非人类的反应时间,而是计算数字串之间的类似性。Bryson的团队用它发现,“Brett”和“Allison”等名字的隐含意义经常类似于含有“爱”和“笑声”的积极词汇,而诸如“Alonzo”和“Shaniqua”的名字则更类似于“癌症”和“失败”等消极词汇。对于计算机来说,偏见也被融入了词汇中。
IAT还表明,平均来看,美国人会把男性与工作、数学和科学联系在一起,而把女性与家庭和文学艺术联系在一起。年轻人普遍被认为比老年人更加快乐。研究发现WAET中也存在所有这些联系。利用同样的技术测验那些积极和消极词汇的引申义的相似性,该程序还推断花朵比昆虫更令人喜欢,乐器比武器更令人愉快。
研究人员接下来进行了一种词向量事实联想测验(WEFAT)。该测验据定了一些词汇与其他词汇的关联性有多强,随后对比了那些联想在真实世界中的实际情况。例如,它查询了“保健专家”和“图书管理员”以及“女性”和“妇女”这些词汇的引申义相关度有多强。对于每一种职业,它对比了计算机生成的性别联想与这一职业内的实际女性比例。其结果是相关性非常强。该团队4月13日在《科学》上报道称,因此计算机向量可将从常见的对花的情绪到种族和性别偏见乃至劳动力的事实等所有事情编码在内。
“算式能够发现这些非常酷。”波士顿大学计算机学家、最近同时用类似工作做出类似结果的Tolga Bolukbasi说,“当你在训练这些词汇的引申义时,实际上你从未特别地做过这些标注。”有缺陷的一点是存在偏见的引申义会如何被利用,比如在归类简历或是申请借贷时。例如,当一台计算机在搜寻计算机程序员时将“程序员”与男性联系在一起,那么男性的简历将会到达最顶部。Bolukbasi的工作集中在对引申义“去除偏见”的方法上,即将不必要的联想与一些词汇剥离。
Bryson还有另一种方法,她没有选择去除偏见的引申义,即丢掉一些信息,而是加入另一层的人类或计算机判断来决定如何或是否运用这些偏见。比如在雇佣程序员的案例中,可以通过设定性别配额。
人们一直认为语义似乎可以合理地从词汇同现中提取出来。“但它和此前的结果大不相同。”西雅图华盛顿大学心理学家、1998年研发出IAT的Anthony Greenwald说,近日他撰写的对于WEAT的评论文章发表于《科学》。他表示期待写作(WEAT测验的基础)能够更好地反应清晰地态度,而非模糊的偏见。但取而代之的是,WEAT的引申义比种族和性别态度调查结果更接近或类似IAT偏见,这表明人们可能会以没有意识到的方式通过语言传递偏见。“所有些令人吃惊。”他说。他还表示WEAT可通过测试19世纪初撰写的书籍中词汇的引申义,来检测此前的模糊偏见。
同时,Byron和同事还表明,即便是谷歌也不能免除偏见。该公司的翻译软件在翻译若干种语言的性别中性名词时,会把医生翻译成“他”,而把护士翻译成“她”。
所有这些工作“表明如何选择你的词汇非常重要”,Byron说,“对我来说,这实际上是对政治正确和积极行动等所有这些事情进行辩护。现在,我看到了它有多重要。”(晋楠编译)