作者:王铄 来源: 中国科学报 发布时间:2026-3-26
选择字号:
假X光片医生也难辨

 

AI生成的X光片让科学家感到担忧。图片来源:北美放射学会

3月24日发表于《放射学》的一项研究表明,大多数放射科医生都无法辨识由人工智能(AI)生成的X光扫描图像,只有不到半数的人能发现隐藏在真实医疗数据中的合成图像。而大语言模型也不能很好地区分真实与合成的医学图像。

这项研究提供了一套培训方案,旨在帮助放射科医生提升识别AI生成的X光图像的技能。研究人员强调,合成数据的负面影响,可能会渗透到科学文献和医疗诉讼中。

“这项研究结果令人不安,但并不意外。”美国微生物学家、图像完整性专家Elisabeth Bik表示,“这不仅引发了对研究完整性的担忧,还给使用成像证据的临床工作流程、保险索赔及法律背景带来了隐患。”

研究人员向来自12家研究中心的17位放射科医生展示了一组X光扫描图像,其中半数为真实扫描图像,半数由AI生成。在不知道研究目的情况下,参与者被问及AI图像的技术质量及是否察觉到任何异常之处。最终,41%的人表示怀疑,认为其中可能混入了AI生成的扫描图像。

接着,放射科医生被告知其中部分图像由AI生成,并被要求辨别真实的扫描图像和由ChatGPT生成的图像。平均而言,参与者正确识别AI与真实图像的概率为75%。论文作者、美国西奈山伊坎医学院的Mickael Tordjman指出,重要的是,“这一结果并未因放射科医生的从业经验不同而产生差异”,他们拥有从0到40年不等的专业经验。

研究团队还探究了ChatGPT和Gemini等AI模型的辨别力是否比放射科医生更敏锐。在区分真实图像与ChatGPT生成的图像时,AI的准确率为57%至85%。

AI生成的图像如此难以辨别,可能会给科学界带来严峻挑战。Tordjman指出,虚假图像可能对诉讼和保险索赔造成干扰。此外,合成的扫描图像也可能渗透到科学文献中。尽管出版商已出台政策禁止或限制使用此类内容,但审稿人和学术期刊仍收到大量包含AI生成图像及医学数据的论文。研究人员担心,包含不准确信息的AI生成内容不仅会误导科学家,也会误导公众。

另一个令人担忧的问题是,用于解读医学影像数据的AI模型,可能被训练数据集中混入的AI生成的数据所扭曲。

与此同时,研究人员发现,合成数据有助于提升放射学AI模型的性能。美国斯坦福大学的Curtis Langlotz指出,如果这些更逼真的AI放射影像能够填补AI模型训练数据中的空白,那么对医学界而言,这可能是一件好事。

该研究设计了一项互动测试,旨在教会研究人员辨别AI生成的X光扫描图像与真实图像。它涵盖了AI生成的放射影像的一些典型特征,如骨骼过于光滑、脊柱异常笔直等。研究人员指出,除了培训放射科医生,数字水印等技术可以使识别真实图像变得更容易,政府机构主导的监管框架也可以这样做。(王铄)

相关论文信息:

https://doi.org/10.1148/radiol.252094

《中国科学报》 (2026-03-26 第2版 国际)
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
科学家制造出可实时扭曲和控制光的芯片 难以捉摸的“核时钟”有望实现
研究发现大型真菌新物种 研究发现旋转速度快得不可思议的小行星
>>更多
 
一周新闻排行
 
编辑部推荐博文