本报讯 人工智能设计的蛋白质能被用作生物武器吗?为了避免这种可能性,3月8日,美国研究人员发起了一项倡议,呼吁安全、合乎道德地使用蛋白质设计。
这项倡议的发起者之一、美国华盛顿大学西雅图分校计算生物物理学家David Baker说:“蛋白质设计的潜在好处远远超过了危险性。”其他数十名将人工智能应用于生物设计的科学家也签署了该倡议。
“这是一个良好的开端。我会在倡议上签名。”美国乔治城大学卫生政策专家Mark Dybul说。但他认为:“我们需要政府的行动和规则,而不仅仅是自发的指导。”
此前,美国国会、智库和其他组织纷纷发布报告,探讨人工智能工具,如AlphaFold等蛋白质结构预测网络、ChatGPT等大型语言模型,是否会使开发生物武器变得更加容易。
几十年来,包括Baker和同事在内的研究人员一直在尝试设计和制造新的蛋白质。近年来,得益于人工智能的进步,他们的创造能力大爆发。曾经需要数年或不可能实现的工作,比如设计一种与特定分子结合的蛋白质,现在可以在几分钟内完成,而科学家为此开发的大多数人工智能工具都是免费的。
为评估恶意设计蛋白质的可能性,华盛顿大学西雅图分校贝克蛋白质设计研究所于2023年10月举办了一次人工智能安全峰会。“问题是,蛋白质设计应该如何受到监管;如果有危险的话,危险是什么。”Baker说。
这份由美国、欧洲、亚洲数十名科学家发起的倡议呼吁生物设计界自我监管,包括定期审查人工智能工具的能力和监测其研究实践。Baker希望该领域成立一个专家委员会,在相关软件被广泛使用前对其进行审查,并在必要时设置安全“护栏”,避免恶意设计内容出现。
该倡议还呼吁改进对DNA合成的筛查,这是将人工智能设计的蛋白质转化为实际分子的关键一步。目前,许多提供这项服务的企业都与一个名为国际基因合成联盟(IGSC)的行业组织签约,该组织要求它们进行筛查,以识别毒素或病原体等有害分子。
美国合成生物学公司Twist Bioscience的生物安全主管、IGSC主席James Diggans表示:“防御人工智能威胁的最佳方法是建立能够检测这些威胁的人工智能模型。”
各国政府正在努力应对人工智能带来的生物安全风险。2023年10月,美国总统拜登签署了一项行政命令,呼吁对此类风险进行评估,并要求政府资助的研究进行DNA合成筛查。
Baker希望政府相关部门不要干涉该领域的未来发展。他说,政府监管可能会限制人工智能设计的蛋白质参与药物、疫苗和材料的开发。Diggans补充说,由于蛋白质设计工具的开发速度很快,目前尚不清楚如何对其监管。“很难想象,监管在这一周是适用的,在下一周仍然适用。”
但是,美国斯坦福大学微生物学家David Relman表示,科学家主导的努力不足以确保人工智能的安全使用,“科学家无法代表广大公众的利益”。(文乐乐)
《中国科学报》 (2024-03-12 第2版 国际)