作者:任芳言 来源: 中国科学报 发布时间:2019-4-22
选择字号:
中国科学院自动化研究所研究员曾毅:
人工智能伦理准则须注意技术落地

 

■本报见习记者 任芳言

日前,欧盟委员会发布人工智能伦理准则,宣布同时开启该准则的试行阶段,并邀请企业和研究机构对这一准则进行测试。人工智能发展的数十年间,经历了多次起伏。今天,人们对深度学习、大数据、通用人工智能带来的成果期许有加。

“但仍然需要有人察觉这些技术中黑暗的一面。”4月20日,在中国社会科学院科学技术和社会研究中心举办的人工智能的社会、伦理与未来研究研讨会上,美国技术哲学家卡尔·米切姆引用莎士比亚剧作《威尼斯商人》中的一句话——闪光之物,未必是金,以提醒人们发展人工智能技术时可能面对的伦理挑战。

值得庆幸的是,人工智能研究者已经开始与人文领域深度融合。

“2018年开始,我们就在中国科学院大学面向人工智能和计算机科学的研究生开设了《人工智能哲学与伦理》课程。据我了解,今年北京大学、浙江大学、西安交通大学等高校也逐步开始设置人工智能伦理相关的课程。”中国科学院自动化研究所研究员曾毅在报告时指出。

曾毅还指出,迄今为止,由政府、非政府组织及研究机构和产业界颁布的人工智能伦理准则提案已经超过40个。

但不同的准则涉及的议题视角各不相同。曾毅告诉《中国科学报》,其研究团队对这些提案进行过梳理,但“没有任何一个提案可以覆盖其他提案超过65%的议题”。

曾毅团队主要从事类脑人工智能研究。他认为,从人工智能研究长远发展来看,对人工智能风险、安全与伦理的思考急需算法化、模型化落地,从而确保人工智能向有益社会的方向发展。

“技术发展会对伦理准则提出新的要求。由于文化、地域、领域的差异,‘大一统’的准则提案不但很难做到,而且没有必要。因此,不同国家、组织之间伦理准则如何协同很重要。”曾毅说,“这些准则如何进行技术落地、经受社会检验,再不断迭代完善,是未来要面临的更有意义的问题。”

在当前对人工智能伦理的讨论中,还有一些问题亟待解决。

曾毅在报告中提到,“由于设计缺陷,现阶段的很多人工智能模型,更关心如何获得最大的计算奖励,但忽略了对环境和社会造成的潜在隐患。”

以强化学习模型为例,模型中会设计一个奖励函数,以帮助模型在与环境交互过程中通过获得尽可能多的奖赏进行学习,但如果奖励函数设置不合理,为了完成任务,很可能会忽略对周围环境和其他智能体的影响,并产生不可逆的后果。

“目前绝大多数的人工智能没有自我的核心,不能区分自我和他人。而人类的经验、对外部事物的揣测,建立在自我经验的基础之上。”曾毅告诉记者。对自我的计算建模也是当前人工智能领域一个关键问题,“具有一定程度自我感知能力的人工智能模型从本质上更利于自主学习、理解人类的价值观”。

《中国科学报》 (2019-04-22 第4版 综合)
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表科学网观点。 
相关新闻 相关论文

图片新闻
第一颗被证实有大气层的行星出现了 听导师的话,毕业论文答辩这样准备
大规模基因研究重绘开花植物的生命之树 彭慧胜院士团队把“充电宝”做成衣服
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文