中山大学中山眼科中心教授林浩添、副研究员杨雅涵团队与合作者,通过文献计量学方法,对眼科人工智能(AI)伦理领域的发展路径、现状热点及关键解决策略进行了系统性“解码”,不仅为医学AI伦理领域提供了量化分析的理论框架,更构建起一套可扩展的伦理治理框架。相关成果近日发表于《Npj数字医学》。
AI伦理治理是保障技术健康发展的核心议题。面向国家与行业发展需求,林浩添团队联合国内外高校及科研机构,充分发挥交叉学科优势,长期攻关隐私伦理相关的智慧医疗解决方案。此前,团队已研发患者眼面部影像隐私保护的“数字面罩”技术,为患者个人信息装上“安全锁”;并开发基于“AI-区块链”技术的临床研究数据管理框架,给多中心研究数据筑起“防护盾”。
在推进上述实践的过程中,团队深刻认识到当前医学AI伦理研究的两大关键瓶颈:一是“规律难把握”,缺乏系统性、量化的分析手段,导致难以追踪伦理问题的演变轨迹、评估现有解决策略的有效性,更无法预测未来发展趋势;二是“工具不匹配”,现有指南与综述多停留于原则性讨论,缺乏针对不同数据模态(如眼外观照片、眼底影像、手术影像等)与应用场景(如诊断、治疗、研究等)的精准可操作伦理指引,导致实际落地时往往“一刀切”,难以应对真实场景中的复杂挑战。
论文共同第一作者兼共同通讯作者杨雅涵表示,眼科作为数据密集、AI技术应用成熟的典型领域,成为探索医学AI伦理治理的理想“试验田”。数据显示,近5年眼科在医学AI伦理领域发表论文的数量与增长速度迅猛,是医学AI伦理领域的“先驱示范”。
回顾眼科AI的发展历程,其伦理关注点随技术落地阶段而动态演变:2018年,AI初入临床,因诊断关联视力安全,最初聚焦于“能不能用”的信任度与可靠性问题;2019-2020年,AI落地扩围,因其“黑箱”特性难以解释,且模型对不同人群的性能存在差异,透明度与公平性成为关注焦点;2021年至今,多中心数据共享普及,眼科图像含个人特征易泄露,隐私与数据安全成为核心议题。
进一步分析发现,不同数据模态的AI应用面临差异化伦理挑战:眼外观或面部照片涉及个人身份可识别信息,相关AI更关注隐私保护;眼底影像与OCT常覆盖多样化人群数据与多病种,相关AI则注重透明度与公平性;眼科手术精细,基于手术影像构建的AI则聚焦安全与“有益与无伤害”原则。
针对医学AI伦理治理缺乏量化依据的关键问题,研究团队通过系统性文献计量分析,构建了首套可量化、可扩展的伦理治理评估框架。该框架不仅为眼科AI的规范化发展提供了实证基础,更为整个医学领域落实国家AI治理战略提供了科学范本,对推动医学AI产业健康有序发展具有重要实践价值。
“该研究为临床实践、技术开发与政策制定提供了精细化、可操作的‘伦理导航’。”论文共同通讯作者林浩添表示。该研究是中国学者在医学AI伦理领域从“跟跑”到“并跑”乃至“领跑”的重要尝试,未来团队将继续深化研究,为全球医学AI伦理治理贡献“中国方案”。
相关论文信息:https://doi.org/10.1038/s41746-025-01976-6
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。