不同学习条件下的面孔匹配能力。A 多姿态面孔学习的迁移补偿作用; B 多表情面孔学习未产生迁移补偿作用
近日,中国科学院心理研究所认知与实验心理学研究室傅小兰研究组陈文锋等专家在面孔认知的研究中取得重要进展,他们首次研究了面孔认知图像不变性的表征获得过程中姿态和表情信息的整合过程,发现了姿态和表情在这种整合迁移中的不对称作用,揭示了人类面孔匹配中基于图像相似性的特点。
近年来,面孔认知中人类如何获得图像不变性的表征引起了科学家们的浓厚兴趣。行为水平、神经水平和计算机视觉水平的研究都证实了不依赖于姿态、表情、亮度等不同类型图像变异的面孔表征,也证明了同一种类型图像变异下的面孔学习过程。但是,对于不同类型的图像变异之间如何相互作用或整合这个问题却未曾得到解决。陈文锋等人对这个问题进行了研究。
在此次研究中,陈文锋等人采用学习迁移的概念来研究姿态和表情变异下的面孔训练是否有助于新的图像变异条件下的面孔识别。结果发现,多个不同姿态下的面孔训练能够帮助新表情面孔的识别,但多个不同表情下的面孔训练并不能帮助新姿态面孔的识别。作者从基于图像相似性的角度讨论了不同图像变换与面孔学习的关系,并在专门的文章里研究了计算机视觉领域中人工面孔识别系统基于图像相似性的识别与人类基于图像相似性的面孔匹配行为之间的关系。
该项工作的结果发表在2月份的爱思唯尔期刊《视觉研究》(
Vision Research)和
Science in China Series F: Information Sciences上。 该项工作是与中科院心理所的陈文锋副研究员和英国赫尔大学的刘长虹博士合作完成的,其间得到了国家科技部、自然科学基金委和英国皇家学会的资助。(来源:
中科院心理所)
(《视觉研究》(
Vision Research),Volume 49, Issue 3, February 2009, Pages 368-373,Wenfeng Chen,Chang Hong Liu)