近日,在香港中文大学(深圳)举办的2024新质生产力、医工融合创新大会上,中国工程院院士吴世忠以《人工智能视角下的医疗数据安全与患者隐私保护》为题进行主题报告。
他提到,随着人工智能(AI)技术的不断发展和迭代,人类社会已进入大算力、大模型、大数据、大应用时代。医疗领域早已引入人工智能,在流行病监测、药物研发、医疗影像识别、心理健康等方面发挥重要作用。与此同时,与之相随的数据安全隐患也日益凸显。
当前,医疗领域网络化、数字化、智能化进程面临的安全风险主要包括:数据泄露与隐私泄露、网络攻击与黑客入侵、数据篡改与伪造、不当访问与授权管理、医疗数据共享风险、数据存储的第三方服务风险、内部人员的泄密、数据冗余与保存不当、法律合规风险等。
首先是网络安全问题。随着人工智能技术的应用,网络安全风险出现了新变化,传统的网络安全问题受人工智能影响变得更加复杂,数据劫持、网络钓鱼、勒索攻击更加猖獗。
医疗领域的网络犯罪十分突出,医疗数据遭受攻击和破坏的案例不断增加。例如,2023年,印度新德里的全印度医学科学研究所医疗设备遭遇勒索病毒攻击;今年9月,美国人工智能医疗公司Confidant Health的服务器配置错误,泄露了5.3TB的敏感心理健康记录。 根据IBM《2024年数据泄露成本报告》显示,医疗行业数据泄露平均成本达977万美元,连续14年成为数据泄露成本最高行业。国内某网络安全企业也披露,2023年医疗行业泄露数据达9亿条,影响触目惊心。
其次是模型安全问题。人工智能模型的安全性直接影响应用效果,尤其是在医疗领域,近年来已经暴露出一些问题,包括个人隐私泄露、算法或模型攻击、模型偏差以及系统脆弱性和网络安全。这些问题的主要原因是模型本身在可靠性和可解释性方面存在不足。例如,人工智能模型可能会受到简单的扰动就产生错误的输出,或者数据本身存在问题导致人工智能模型结果不准确。
再者,伦理问题也是人工智能在医疗领域应用中不可忽视的一个方面。全球多国发布了关于人工智能伦理文件,提出了包括合作、透明度、公平、非恶意责任、隐私等基本要求。医疗领域也提出了如何保护个人自主权、个人健康和安全以及公众利益等具体要求。然而,随着实际应用的推广,与人工智能相关的偏见、歧视、技术滥用、事故责任认定等伦理挑战越来越突出。
针对人工智能在医疗领域应用的风险问题,吴世忠从数据、安全和管理等角度进行分析。
数据方面,要提高安全防护水平,确保数据安全和隐私保护,促进人工智能技术在现代医疗领域的转型和升级。数据是现代医疗的重要生产要素,具有很高价值。虽然当前医疗数据数量越来越大,但数据质量并没有随之提高,“数据孤岛”问题依然存在,数据协同合作动能和效能不足,跨境数据流动面临较多待破解难题等,亟需全方位突破。
在安全工作方面,要统筹安全与发展,强化安全保障体系。具体而言,要把软件作为网络安全服务的重点,确保医疗智能化系统的稳定性和可靠性。同时,需要加强医疗数据的保护,防范患者隐私数据丢失,但要确保促进正常的科研合作和数据流动。此外,还需要提高安全意识,通过定期培训与教育、营造安全文化氛围、模拟演练与应急响应、建立安全意识提示机制等举措,提升医疗行业从业人员整体的网络安全意识。
最后,要坚持依法依规管理,做好“技管并重”。可以充分利用数字医疗技术、安全保障技术等手段确保人工智能技术在医疗领域的发展和安全。同时,还要高度重视对新技术安全风险方案的研究,严格遵守法规政策,遵循技术标准和行业规范,以确保人工智能应用的安全性。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。