人工智能(AI)已经帮助临床医生在美国各地的医院进行诊断、分诊危重病例和转录临床记录。但研究人员在近日发表于《公共科学图书馆-数字健康》的一份报告中指出,对医学AI产品的监管并没有跟上它们被迅速采用的步伐。
图片来源: Getty
?
作者指出了美国食品和药物管理局(FDA)批准这些设备的局限性,并提出了超越该机构的更广泛战略,以帮助确保医疗AI工具安全、有效。
FDA已经批准了1000多种医疗AI产品,医院正在迅速采用它们。与大多数其他受FDA监管的产品不同,AI工具在获得批准后会继续发展,因为它们会根据新数据进行更新或再训练。这就提出了持续监督的必要性,而现行法规在这方面的保障能力有限。
如果没有适当的监督,医疗算法可能会给出误导性的建议并危害患者。“必须有保障措施。”该报告作者之一、美国麻省理工学院的临床研究员Leo Anthony Celi说,“我认为,依靠FDA提出所有保障措施是不现实的,甚至可能是不可能的。”
FDA用于审查和授权医疗AI工具的标准通常不如药品严格。例如,根据FDA的规定,只有那些可能对患者构成更高风险的工具才需要进行临床试验。另一个担忧是,在应用于与训练对象不同的人群时,医疗算法往往表现不佳。Celi说,由于这些限制,监管部门的许可并不能确保医疗AI产品对它想要帮助的目标群体有益。
理想情况下,医院应在采用这些技术前,评估算法在其患者群体中的表现,培训临床医生正确解读输出结果并作出适当反应。而Celi表示,“最大的挑战之一是绝大多数医院和诊所没有资源聘请AI团队”进行此类测试。他补充说,今年发表的一项研究发现,许多医院正在购买“现成”的AI工具,并在没有本地数据验证的情况下使用。“这是灾难的根源。”
报告建议大学与医疗机构合作对AI医疗设备质量进行评估。“让大学帮助医院的IT部门准备数据集、运行模型、评估算法并监控影响。”Celi说,“这是以前从未做过的,但考虑到技术的发展速度,我们认为传统的结构将无法满足需求。”
FDA没有权力要求医院在产品得到许可后进行此类测试。美国斯坦福大学的健康法律研究员Michelle Mello说:“这根本不是其法定管辖权的一部分。问题是,除了FDA之外,还有谁参与其中、它们会做什么。”
Mello说,一个候选机构是美国医疗保险和医疗补助服务中心(CMS),这是一个为老年人和低收入人群等提供公共医疗保险的美国联邦机构。她指出,CMS有权要求医疗机构对AI工具进行更严格的评估,并作为通过公共保险计划获得付款的条件。
美国雪松-西奈医疗中心的心脏病专家David Ouyang也强调了医疗保险公司在激励对AI工具进行更彻底的测试方面可以发挥的作用。他认为, 保险公司可以要求更严格的评估作为承保条件。“保险的证据标准实际上比FDA的要高。”他说,“因此,AI的使用还有其他保障措施。”
相关论文信息:https://doi.org/10.1371/journal.pdig.0000866
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。