作者:王一鸣 来源:中国科学报 发布时间:2024/11/4 20:04:56
选择字号:
以人为本 智能向善
2024中国科学院学部科技伦理研讨会在沪召开

 

医学人工智能、生成式人工智能如何被负责任地应用?脑机接口等神经技术是否侵害了“精神完整性”?异种移植、基因编辑、干细胞“人造肉”等合法化之路涉及哪些伦理新问题……10月14日,中国科学院学部2024年科技伦理研讨会在上海举行,来自中国、美国、英国、加拿大、德国、丹麦、荷兰、新西兰、挪威、日本等国,有着东西方不同文化背景的70余位专家学者共话人工智能伦理和生命伦理两大主题。


本次会议由中国科学院学部科学道德建设委员会主办,中国科学院科技战略咨询研究院、中国科学院上海分院承办。中国科学院院士、中国科学院学部科学道德建设委员会主任胡海岩在会议致辞中谈道:“科技伦理全球治理面临着严峻挑战,但目前缺乏一个有效的国际治理机制来协调各国在科技伦理上的共同行动。”为此,他指出:“在此背景下,我们召开此次国际科技伦理研讨会,目的在于搭建一个多元包容的国际对话平台,通过汇聚来自不同文化背景、行业领域、学科专业的优秀学者和政策专家,就科技伦理的全球治理议题开展深入对话,有助于在国际层面建立对科技发展和伦理道德的共同理解和行动,保障科技进步服务于全人类的福祉。”

2024中国科学院学部科技伦理研讨会。中国科学院学部提供


人工智能与生命伦理的“跨界”融合

本月上旬,2024年诺贝尔物理学奖和化学奖花落几位“AI大佬”,以表彰他们在人工神经网络、机器学习领域的基础性发现和发明,以及利用计算机进行蛋白质设计、在蛋白质结构预测方面的贡献。

人工智能与生命科学及其他多学科融合、推动科学研究突破边界成为探索趋势。这种“跨界”融合也充分体现在本次研讨会中,人工智能时代的生命伦理成为与会专家学者的热门议题。

中国科学院院士高福从技术哲学的角度出发,指出:“在人工智能时代下,智能与生物的交叉融合正在深刻改变我们对生命、意识的认知。”他以脑机接口、人机协同、虚拟现实与增强现实技术等举例,呼吁需要重新思考:具有自主意识的人工智能是否应该被视为“生命”,脑机接口增强后的人类是否还是“人类”,人机协同逐渐普遍应用于医疗诊断和治疗领域,责任又该如何分配?

中国社会科学院哲学研究所研究员赵汀阳从伦理学角度提出:“伦理学研究的是人与人的关系,不能加以跨物种推广,人工智能本身是安全的,人类才是问题所在——如果人类不试图将自己的价值观强加给人工智能,未来人工智能将会是安全的。”

多位与会嘉宾则从医疗健康的角度,讨论人工智能在医疗健康领域的应用。他们的观点都建立在一个概念的基础上,即欧盟提出的“负责任的研究与创新(RRI)”。挪威卑尔根大学教授李瑞达(Reidar Lie)在报告中介绍了这一概念,并指出科学发展需要更加全面和深入的考虑,不仅要关注程序性规范,还要加强对科研内容本身的伦理审视。

美国纽约大学教授廖马修(S. Matthew Liao)提出了一个以实质性人权理论为基础的人工智能伦理框架,“必须确保人工智能研究人员和组织在开发相关技术时,严格遵循恰当的伦理框架和准则。”英国爱丁堡大学教授罗宾·威廉姆斯(Robin Williams)的报告与之形成补充,他强调“预防”还不够,“需要对人工智能工具进行持续、实时的后市场审查”。

日本东京大学教授横山広美(Hiromi M. Yokoyama)则从社会政策的角度,指出“为了制定的政策能获得社会共识,衡量公众对人工智能应用的伦理、法律、社会影响(ELSI)和负责任的研究与创新(RRI)的态度是必要的。”她在报告中讨论了两个评分系统的开发,介绍如何通过情境构建,了解公众担忧,从而合理施策。

前沿生物医疗实践中的“红线”界定

新兴科技的医疗实践与人类生命健康直接相关,伦理问题也更亟待解决。本次研讨会上,专家学者们引用了许多影响广泛、深刻的生物医疗科技前沿案例,结合实际讨论如何进行对人工智能、生命科学等技术的治理尺度。

许多学者指出,前沿科技实践带来更加错综复杂的伦理问题,需要更多关注和研判。

中国医学科学院北京协和医学院特聘教授翟晓梅分析了异种器官移植临床应用在中国面临的科学、伦理,以及监管的挑战。

美国哈佛大学教授丹尼尔·维克勒(Daniel Wikler)以疫苗之争为例,强调了在人口层面,伦理困境中精确道德推理的重要性。在这个例子中,对国家间儿童死亡率差异的忽视导致了对急需疫苗国家的儿童未能受到保护。好的道德推理会这样解释生命同等价值的原则:“每个孩子都应该获得对其最有益的医疗服务。”

还有一些专家学者,结合现有案例提出了多样化的解决方案。

英国爱丁堡大学教授罗宾·威廉姆斯提到,可以有选择性地使用可靠模型,从而建立起一种负责任的人工智能应用的临床实践。伦理与责任问题需要与人工智能的实施、应用和成果的独特性结合起来。

英国伯明翰大学副教授尼尔·斯蒂芬斯(Neil Stephens)分享了自己所见的干细胞“人造肉”合法化之路。2008年他了解到干细胞“人造肉”技术时,科学界还没有合适的伦理框架来理解。后来慢慢形成一种主流框架:培养肉不是替代品,与传统肉类完全相同,只是生产方式不同。再后来,新加坡、美国、英国等国家陆续将其在限定条件下合法化。

针对脑机接口伦理治理问题,北京大学医学人文学院长聘副教授陈海丹提出了自己的建议,即制定红线、黄线、绿线的分区管理体系,红线表示禁止的高风险活动,橙线作为缓冲区,允许对不确定的风险进行动态调整,绿线则表示批准的活动。这种系统类似于交通信号灯,有助于在不确定性高的技术领域平衡创新与监管。

“阿西洛马”精神在人工智能时代的重构

目前,人工智能叙事已经形成了科学化、科幻化、诗意化叙事三种明显形式。复旦大学科技伦理与人类未来研究院教授杨庆峰在会上阐释了这三种叙事:科学化叙事,强调人工智能以神经科学、计算机科学等科学研究为基础;科幻化叙事,强调要以科幻小说或电影为基础,涉及超级智能与宇宙、人类命运的关系问题;诗意化叙事,强调对人工智能的理解以文学想象为基础,并形成后人类形象。

本次研讨会上,科学化叙事的讨论占据主流,科幻化叙事、诗意化叙事也都有涉及,让研讨会有了更多人文关切。

武汉大学计算机学院教授蔡恒进指出,当人工智能作为生命个体的延伸和分身,能大幅增强人类个体能力,在元宇宙交互中,有望形成超级智能。基于这种新的通用人工智能(AGI)实现路径,目前的主流中心化人工智能大模型对人类构成的生存论风险就会得到有效化解。

美国莱斯大学副教授路易斯·坎波斯(Luis Campos)则带大家重温了“阿西洛马精神”。50多年前的夏天,一群分子生物学家联名向国际社会致信,对重组DNA技术中某些新颖方法可能带来的潜在风险发出警告。信中,他们基于伦理与安全的考量,呼吁自愿推迟部分实验,这封信因此被誉为“现代科学研究史上首份自我约束的法令”。同时,信中也倡导对这些问题进行更为深入的评估,这一倡议最终促成了1975年2月召开的“阿西洛马会议”。

2017年1月,近千名人工智能和机器人领域的专家,同样相约阿西洛马,联合签署了阿西洛马人工智能23条原则,呼吁全世界在发展人工智能的同时严格遵守这些原则,共同保障人类未来的伦理、利益和安全。

加拿大皇家学会院士弗朗索瓦丝·贝利斯(Fran?oise Baylis)曾任世界卫生组织人类基因组编辑治理和监管全球标准专家咨询委员会成员。正如她在报告中所说,“我们希望生活在一个什么样的世界中?对于这一问题的答案应贯穿于人们对人类基因组编辑等科技创新的回应之中。”

如今,重温科技新时代的“阿西洛马精神”,重构以人为本、智能向善的伦理初心,尤为重要。

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
遗传分析追踪潘多森林的进化 团队研制出高性能的蓝光量子点液体激光
宇航员可搭乘小行星前往金星或火星 泡菜等发酵食品真的对肠道有益吗?
>>更多
 
一周新闻排行
 
编辑部推荐博文