本报讯 科学家开发了一个由1万多张人类图像组成的数据库,用来评估人工智能(AI)模型在计算机视觉领域的偏见。这一名为“公平的以人类为中心的图像基准”(FHIBE)的数据集,经用户同意,采用符合伦理的手段获取,可用于评估以人为中心的计算机视觉任务,从而识别、纠正偏见和刻板印象。《自然》11月6日发表了这项研究成果。
计算机视觉广泛用于自动驾驶车辆、面部识别技术等领域。许多计算机视觉使用的AI模型,其训练数据存在缺陷,可能未经同意收集,经常来自网络大规模图像抓取。此外,AI模型可能会有性别、种族歧视或其他刻板印象的偏见。
在这项研究中,美国纽约索尼AI的Alice Xiang和同事构建的图像数据集FHIBE,包含了81个国家或地区1981名个体的10318张图像。该数据库包括了人口统计和生理特征的全面标注,如年龄、性别、祖先血统、发色与肤色等。参与者获得了关于项目和潜在风险的详细信息,帮助他们做出知情同意,过程符合全面数据保护法规。这些特征使该数据库成为评估AI偏见的可靠资源。
研究者将FHIBE和27个现有以人类为中心的计算机视觉应用数据集进行了比较,发现FHIBE数据集在多样性与AI评估的可靠同意方面标准更高。它还有效减少了偏见,包含的参与者自我申报标注信息超过其他数据集。该数据集可用于评估现有的AI模型在计算机视觉任务中的表现,能揭示更多此前无法了解的偏见。作者承认创建数据集的过程充满挑战且成本高昂,但总结说,FHIBE可能代表了迈向更可信AI的一步。(赵熙熙)
相关论文信息:
https://doi.org/10.1038/s41586-025-09716-2
《中国科学报》 (2025-11-10 第2版 国际)