|
|
|
|
|
AI是医师的“外脑”与“助手”,而非“替代者” |
|
《医疗机构人工智能应用与治理专家共识(2026 版)》发布 |
“人工智能(AI)在医疗领域的深度嵌入,正重塑着医疗机构的医疗服务、诊疗决策与科研教学流程。然而,其基于持续学习与迭代更新的自主演化特性,与传统医疗器械的静态监管模式形成根本性冲突。”近日,中国医学科学院北京协和医学院医学信息研究所医疗卫生法制研究室主任曹艳林接受《医学科学报》采访时表示。
鉴于此,为了让医疗机构AI应用朝着“安全、有效、公平、可解释”的合规底线与发展方向,确保技术演进始终处于安全可控的法律与伦理框架之内,40余家国内顶尖医疗卫生与科学研究机构联合制定了《医疗机构人工智能应用与治理专家共识(2026版)》(以下简称共识),并于近日发表于《中国医学伦理学》。
“我们期待共识能够提升优质医疗资源的普惠可及程度,从而推进健康中国战略。”共识执笔作者之一、清华大学附属北京清华长庚医院法务部副部长王婧说。
AI+医疗已势不可挡
去年1月,DeepSeek发布的R1版本凭借其在多项性能指标上的卓越表现,成功跻身全球最先进的大语言模型行列,其强大的数据处理能力在医疗领域中具备广泛的应用潜力。
为更符合数据安全和隐私保护的严格要求,众多医疗机构通过本地化部署管理患者数据,优化诊断决策、临床路径及个性化治疗方案,同时降低因数据传输造成的安全风险。
据了解,R1版本发布两月后,国内已有涉及20余个省份超四百余家医疗机构完成DeepSeek本地化部署。
去年11月,国家卫健委等五部门联合发布《关于促进和规范"人工智能+医疗卫生"应用发展的实施意见》,深化人工智能在基层应用、临床诊疗、患者服务、中医药、公共卫生、科研教学、行业治理、健康产业等8个方向24项重点应用。
共识指出,我国 AI 医疗正处于政策驱动下的规模化落地期,AI 工具快速覆盖基层医疗、公共卫生等场景,医疗机构面临着前所未有的机遇与挑战。
为此,国内来自法律、信息技术、政策、伦理及临床医学领域的专家组经深入研讨,结合政策、法律、伦理及医疗机构应用实践中的新问题,在《医疗机构部署DeepSeek专家共识》的基础上,形成上述共识。
共识包括6个大的层面,分别为:准入审查:建立多学科联合评估机制;临床应用:坚持“人机协同,以人为主”;患者权利保障:知情同意与解释权;数据治理:隐私保护与价值归属;风险管理:全生命周期监测与责任兜底;人才与文化:素养提升。
AI应用有不同风险级别
共识指出,按照AI应用临床决策影响程度为核心,综合考虑患者安全风险、算法干预深度、疾病/场景风险等维度,将医疗机构的AI应用分为低风险、中风险及高风险三个级别。
其中,低风险AI应用仅提供数据处理、信息展示、流程辅助,非临床决策支持,不参与诊断、治疗、用药等核心医疗决策,不影响临床诊疗判断。作为医疗器械管理的AI产品被列入中、高风险。
高风险AI产品系辅助决策功能,指通过提供诊疗活动建议辅助用户(如医务人员、患者)进行医疗决策,如通过病灶特征识别、病灶性质判定、用药方案制定、治疗计划制定进行辅助分诊、辅助检测、辅助诊断、辅助治疗等,相当于用户的“助手”。
共识建议,低风险技术虽不直接干预诊疗,却深刻影响患者就医体验与医院运行效率,其设计必须坚守“以人为中心”原则,杜绝算法偏见,确保服务可及、透明、包容,建议适用简化备案流程,但仍需医疗机构通过数据安全、系统稳定性及伦理合规性三重基础审查评估。
而中高风险AI产品准入应采用严格审查流程,虽中高风险AI产品已经过医疗器械注册审批,仍需着重开展技术有效性验证、引入医疗机构临床适用性评估、伦理风险研判。
“医疗机构应建立由临床专家、医学工程处代表、信息中心代表、法律顾问及伦理委员会代表组成的‘AI 产品准入联合评估组’,实行‘一票否决制’。 ” 曹艳林表示,AI产品引入前,应在院内非核心业务场景或模拟环境中进行小范围的真实世界测试。
此外,医疗机构在引入AI产品时,应鼓励在同一临床场景下引入竞争性算法进行交叉验证,以降低单一模型偏差带来的系统性风险。
坚守数据不出院原则
共识指出,无论 AI 的技术成熟度如何,其在法律属性上始终定位为“辅助诊疗工具”。因此,共识认为,医师拥有诊疗的最终决策权,医疗机构应承担诊疗行为引发的法律责任。严禁医师将 AI 输出结果直接作为诊断结论出具给患者,严禁全自动化 AI 系统在无人监控下独立执行高风险诊疗操作。AI生成内容应包含必要标识,由医师确认后方可进入病历系统。
在患者权利保障方面,共识认为,应坚持分级知情同意。比如,低风险AI技术服务(如智能导诊、健康宣教知识推送等),可在服务界面弹窗提示;中风险AI产品(如后台影像预处理)可通过住院须知或门诊通用告知书中概括性告知;高风险(如 AI 辅助手术规划、辅助诊断、侵入式手术机器人)需签署专项知情同意书,明确告知 AI 的辅助角色、局限性及替代医疗方案,并明确告知患者有拒绝使用 AI 辅助的权利。
在数据治理方面,共识首先明确了数据不出院原则。医疗机构应当建立本地化部署或私有云环境,严禁将未脱敏的患者个人信息、诊疗信息、病历资料、影像数据直接上传至第三方的公有云大模型进行处理。
一旦出现“AI 相关不良事件”时,共识认为,无论是否造成实际伤害,凡是发现 AI 出现明显的逻辑谬误、幻觉或导致诊疗流程异常中断的,均应被纳入医疗安全(不良事件)报告系统。
曹艳林指出,医疗机构应具备紧急停用 AI 系统的权限与能力,系统故障时,迅速切换至备用系统,若未配备备用系统,则立即启动人工操作流程,如影像诊断暂时采用人工阅片,确保患者诊疗不受影响。故障排除后,全面检测评估系统,确认无误后重新投入使用。
若发生医疗纠纷,共识指出,医疗机构应证明已尽到准入审查义务,且医务人员在使用中严格遵守了操作规范及复核流程。若经鉴定证实医疗损害源于根源为算法设计缺陷或未披露的技术漏洞,医疗机构在承担赔偿责任后,应积极向 AI 产品提供商行使追偿权。
运用AI为了医学更有“人情味”
“医学的本质,从来不只是技术,更是关怀、共情、温度与人性。医疗机构广泛应用人工智能是把医师从重复劳动中解放出来,开展更多以人为本的情感沟通与交流。”曹艳林表示。
因此,共识建议,所有AI辅助诊疗场景必须保留医患直接沟通的物理空间与时间刚性保障,严禁以“智能导诊”“语音录入”等名义削减面对面问诊时长。
共识认为,将“AI 工具使用能力”纳入医务人员培训考核内容的同时,但也强调要在住院医师规范化培训中,保留不依赖 AI 的传统诊疗技能考核,防止年轻医师沦为“算法的附庸”或丧失独立临床思维能力。
共识在最后特别强调,医学的本质是人学。人工智能应当是医师的“外脑”与“助手”,而非“替代者”。医疗机构在拥抱技术的同时,必须坚守医学伦理底线,通过制度建设将 AI 关进规则的笼子里,确保技术始终服务于人类健康福祉。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。