作者:韩扬眉 来源: 中国科学报 发布时间:2019-6-18
选择字号:
人工智能已“学会”性别歧视

 

■本报见习记者 韩扬眉

当听到类似“荡妇”等侮辱性言论时,人类或者反击、或者沉默。但在人工智能语音助手的世界,苹果的Siri会说“I’d blush if I could”(如果我能,我会脸红);亚马逊的Alexa说“谢谢你的反馈”;谷歌语音助手说“我不明白”……如果你对它们进一步提出更“露骨”的要求,它们也鲜有直接拒绝的(目前这些都已作修正)。

近日,联合国教科文组织发表了一份长达145页题为《如果我能,我会脸红》的报告(以下简称报告),批评目前大多数AI语音助手存在性别偏见,“因为它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象”。

AI强化性别偏见

报告对4家公司语音助手的调查显示,当听到用户的性骚扰言论时,语音助手的回应往往模糊且温顺。几乎没有语音助手给出否定回答,或是将用户的言论标记为不合适。

“这就发出了一个信号,暗示女性是乐于助人、温顺、取悦他人的,用户只需按下按钮,发出生硬的语音命令就可以了。”报告认为。

联合国教科文组织性别平等部门负责人珂拉特表示,这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。

这也就意味着,“女性”AI可能强化人类社会的性别偏见。

早在1964年,聊天机器人Eliza的语音助理就预设声音为女声。目前,除了Siri、Cortana等,国内领先的智能语音助手同样存在此类现象,比如百度的“小度”、阿里的“天猫精灵”和小米的“小爱同学”等。

中国科学院自动化研究所研究员、北京智源人工智能研究院人工智能伦理与安全研究中心主任曾毅告诉《中国科学报》,AI语音助手中性别偏见的问题并不是由算法本身造成的,而是产品设计者的选择,直接反映了人类自身的倾向。

尽管现代性别观念中倡导男女平等,但现实社会依然普遍对女性有着刻板印象,即通常认为女性是温和顺从的,有足够的耐心和理解力。

曾毅说:“人工智能产品研发者的最初动机可能来自所谓的‘大多数用户的偏好’,但无形中却造成了性别偏见,而AI无非是对数据特征和属性的学习。实际上目前的AI模型与技术仍然很难像人一样理解‘偏见’的真正意义及后果。”

看来,人工智能已经学会了人类“性别歧视”那一套,而这种偏见在其他领域中也充分展现。比如,亚马逊基于人工智能技术的简历筛选与招聘系统“自己学会”优选男性求职者,而女性简历会被自动减掉分数,该项目已在去年被迫关停;职业平台LinkedIn通过复杂的人工智能算法向用户推荐工作时,多为男性求职者推荐高收入职业,而很少向女性推荐高收入职业等。

“此类人工智能系统的应用不但不能推进人类的福祉,而且直接对人类造成伤害,在人工智能产品与服务的发展中应当被纠正。”曾毅表示。

开发者性别失衡或致“偏见”

报告认为,产品开发者严重的性别比例失衡是产生“偏见”的一个原因。

一项国内调查发现,中国程序员群体的男女比例近12:1。上述报告也提到,在人工智能开发人员中,仅12%是女性;软件开发人员中的女性比例低至6%;信息通信技术专利申请人中的男女性别比例为13:1。

“传统的性别社会化教育形成了这样一个大体的社会分工,使得AI、计算机领域多以男性为主导。”人工智能与新媒介技术与文化研究专家、北京大学教授吴靖表示。

一项发表于《科学》杂志的研究印证了吴靖的观点,该研究表明,基于互联网中标准文本语料库训练出的机器学习模型包含了人类历史偏见的持久印记,且非常精确。比如,在美国,男人会和工作、数学、科学联系起来,而女人会和家庭、艺术联系起来。

事实的确如此。曾毅表示,人工智能研发者的教育背景大多来自理工科,这可能造成他们对于社会、风险、道德与伦理的理解非常有限。“他们自身带有的偏见会被直接嵌入AI系统。”

吴靖分析,人工智能产品打破了过去内容与技术的壁垒,内容生产的话语权和技术工具的权力愈发融合,且主要掌握在技术研发群体手中,也就是说,“码农”群体可能拥有更多的主导权。

如今的智能语音交互产品更多被赋予了媒介属性,比如亚马逊Alexa嵌入大量专业化媒体的内容,根据用户特点进行定制化生产和重新编辑。

大众对社会的认知和理解往往来自媒介,在吴靖看来,“与传统大众传媒相比,人们尚未对新技术下的媒介所存在的性别偏见问题有较多反思和批评。且由于社会的刻板印象,加之AI的精准定位和精准分发,使得性别偏见更加强化和自然化”。

呼吁女性参与AI研发

不只是性别偏见,不平等、种族偏见等人类社会根深蒂固的偏见正通过AI等新技术得以强化,并影响着人类决策。

报告建议,探索将语音助手的“性别”设置为中性的可行性;用户可根据需要更改智能助手设置;培养女性从事先进科技研究的能力,使其能与男性一同引领新技术的发展方向等。

“均衡人工智能研发者中男女性别的比例,这是积极的尝试。”曾毅提到,目前诸多国际组织正在为更多女性提供AI相关的教育与培训。

“各种职业的性别比例都应更平衡,以便相互间获得更多的交流和认识,减少偏见产生。”吴靖建议,把性别社会化教育的观念下沉到更早期的教育过程中。

此外,曾毅还表示,发展不具偏见、公平公正的人工智能是我们的愿景,实现它需要将这一愿景模型化、算法化、系统化落地到相关核心技术、产品与服务中。在人工智能产品与服务全生命周期的各个阶段,尽可能做到公平设计。

过去“技术中立”的原则在人工智能技术这里行不通了,它有了自己的“价值观”。

“通过价值观“校准”,尽可能使其与人类所共识的价值观保持一致,这是人工智能学者们正在做的事情。”曾毅说,“我们期望实现能自动检测偏见的人工智能算法与应用,以尽可能避免数据中潜在的、算法中可能产生的偏见,从而引导公平公正的社会与技术发展。”

《中国科学报》 (2019-06-18 第3版 综合)
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
银河系发现巨大黑洞 史上最亮伽马射线暴来自一颗坍缩的恒星
中国天眼揭秘宇宙“随机烟花” 导师:年年审毕业论文,总有这些问题!
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文