“当前,人工智能技术以惊人的速度发展,如近期DeepSeek引领了低成本开发使用大模型的革新,这既为驱动新的创新提供了更多可能,也带来了诸多风险挑战,而在互联互通时代,加强国际合作至关重要。”2月11日,在“人工智能技术及其应用进展”专题边会上,清华大学交叉信息研究院、人工智能学院院长姚期智提到了大模型如何安全发展等问题。
姚期智作主旨报告。主办方供图
专题边会于“2025巴黎人工智能行动峰会”召开期间举办,旨在共同探讨如何利用国际合作平台,缩小智能鸿沟,确保所有国家都能从人工智能的快速发展中受益,并期望推动建立一个开放包容、互利共赢的人工智能国际治理体系,共同迎接未来发展的机遇与挑战。
![](https://rmtzx.sciencenet.cn/kxwsprint/67ad6874e4b078fce4490b60.png)
会议现场。主办方供图
清华大学计算机系教授唐杰提出,大模型研究的终极目标是教会机器像人一样思考(即AGI),该目标可能很长远也可能很快实现。对于2025AGI的发展趋势,唐杰认为,自主的、具有代理能力的大型语言模型将成为日常生活和工作的核心,人类与代理之间的协作潜力将成为变革性的力量,而最具有突破性的变化将发生在科学研究领域。在“AGI安全”问题上,他提出需要在模型、个人和国家层面制定全面的安全策略。他指出,AGI的路还很长,需要共同努力,实现安全、可控、无幻觉的稳步发展。
麻省理工学院教授、生命未来研究所所长马克斯·泰格马克表示,当前世界大国与大型科技公司热衷于推动通用人工智能(AGI)的实现,但却忽略对其控制机制的研究。为先进人工智能技术建造安全“护栏”是必要的,能避免失控技术引发极端、生存性风险。为此,有必要推动企业与政府之间的合作,借鉴现有监管模式如药品管理、核设施管理的经验,在部署强大的人工智能系统之前,应当通过安全标准审查和控制机制保障其安全可靠。同时,应该倡导全球合作讨论,确保AI技术的发展符合人类利益和价值观。
清华大学文科资深教授、人工智能国际治理研究院院长薛澜提到,为践行2023年中国发布的《全球人工智能治理倡议》,“中国人工智能发展与安全研究网络”凝聚中国人工智能发展和安全领域的优势力量和智力资源,对应“人工智能安全研究所”,代表中方与各国的人工智能安全研究机构展开对话与合作。此次会议将着力于增进各方对中国人工智能发展与安全治理的了解,并期待倾听和增进其他国家对这一领域发展建设的见解,助力全球人工智能发展与治理的合作。
清华大学法学院教授、智能法治研究院院长申卫星在发言中指出,中国已形成人工智能立法的多层综合结构。在定位上,中国人工智能立法力求在创新与监管之间取得平衡,确保法律的明确性,促进行业发展,并与现有法律保持一致。在内容上,中国人工智能立法需廓清人工智能的定义,囊括人工智能法基本原则,建立同AI 分级风险相协调的自我规制机制、风险管理机制、透明机制与损害救济机制。中国也将在《全球人工智能治理倡议》指引下,加强国际合作,共同推动公平、公正的全球人工智能治理规则制定,以增强AI 系统的安全可靠性,促进技术创新和包容性发展。
国际治理创新中心全球人工智能风险倡议执行主任邓肯·卡斯-贝格斯指出,应当针对不同场景和问题采取不同的国际治理机制。前沿人工智能失控等极端风险,更加依赖掌握前沿技术的国家之间进行协调;而深度伪造、虚假信息等一般性的人工智能风险,则更加依赖国内治理。各国政府应利用外交政策来共同设计国际合作机制,因为国家间合作将对公民福祉产生更大影响。
据悉,“中国人工智能发展与安全研究网络”成员单位包括清华大学、北京大学、中国科学院、中国信息通信研究院、中国电子信息产业发展研究院、北京智源人工智能研究院、上海人工智能实验室、上海期智研究院等。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。