作者: 卜叶 来源: 中国科学报 发布时间:2020-9-10
选择字号:
类脑计算:探索阶段的中国实践

 

类脑计算机Darwin Mouse   浙江大学供图

未来,类脑计算技术有望在“两端”率先实现应用,一是应用终端,让人工智能产品更智能、更低功耗;二是服务器端,通过大规模集成实现高算力,可以为神经科学家提供更快、更大规模的仿真系统,以及探索大脑工作机理的新实验手段。

■本报记者 卜叶

上世纪中叶,人类排除万难研制出世界上第一台电子计算机,如今,电子计算机已经应用到方方面面。但是一如此前,研究人员又洞见传统计算机的局限,并希望研发新型计算机开创新局面。

“随着摩尔定律逐渐失效,基于冯·诺依曼架构的电子计算机的局限性日益凸显,存储墙、功耗墙、智能提升等问题,成为当前计算机发展的重大挑战。”浙江大学计算机学院教授潘纲说。

近日,浙江大学联合之江实验室研制出基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse)。这台类脑计算机与小鼠大脑神经元数量规模相当,典型运行功耗只需要350~500瓦。

这台类脑计算机有何过人之处?究竟什么样的计算机是类脑计算机?为什么要研发类脑计算机?类脑计算机有望在哪些领域实现应用?带着一系列问题,《中国科学报》采访了业内专家。

AI跨越式发展的突破口

近年来,人工智能(AI)发展迅速,中国的AI研究与应用更是走在世界前列。但是,“从智能程度上看,即便世界上最先进的智能无人机,与一只苍蝇的智能水平也相差甚远,且体积和功耗很高。”北京大学信息科学技术学院教授黄铁军说。

清华大学微纳电子系教授吴华强介绍,AI算法训练中心在执行任务时动辄消耗几万瓦甚至几十万瓦电量,而人的大脑耗能却仅需20瓦左右,只相当于一只灯泡发光需要的电量。

究其原因,黄铁军认为,目前的人工智能,其核心均建立在数据模型上,与拥有情感、直觉、抽象思维的人脑差距非常大。

他解释说,AI一般通过卷积神经网络(CNN)或递归神经网络(RNN)来实现。CNN和RNN都属于人工神经网络,其中的人工神经元,至今仍在沿用上世纪40年代时的模型,没有太大进步。

可以说,传统的AI一直在用“错误”的结构来追求企及人类的智能。2017年计算机图灵奖得主大卫·帕特森和约翰·轩尼诗曾表示,“未来十年是计算架构发展的黄金十年。”

2016年,《自然》的一篇文章曾提出,类脑计算是后摩尔定律时代极具潜力的发展方向之一,有望成为继GPU、ASIC加速器后,推动AI发展的巨大动力。

潘纲介绍说,用硬件及软件模拟大脑神经网络的结构与运行机制,构造一种全新的人工智能系统,这种颠覆传统计算架构的新型计算模式,就是类脑计算。“类脑计算已被看作是解决AI等计算难题的重要路径之一。”

世界各国也纷纷制订“脑计划”。2005年,瑞士启动“蓝脑计划”支持联邦理工学院在IBM Blue Gene的超级计算机上构建仿真大脑。2008年,美国启动“神经形态自适应可塑性可扩展电子系统”,其目标是研制出器件功能、规模与密度均与人类大脑皮层相当的电子装置。2015年,中国科学院、清华大学、北京大学相继成立“脑科学与类脑智能研究中心”。

神经元规模和模型复杂度两手抓

目前,人类已经取得一些阶段性成果。2014年,美国IBM开发出与人脑类似的TrueNorth系统。TrueNorth芯片并没有采用冯·诺依曼架构,而是模仿人类大脑的神经元结构,其计算效率和可扩展性都远胜电子计算机。2015年,德国海德堡大学成功运行了采用BrainScaleS神经处理器的类脑计算机,2016年英国曼彻斯特大学的SpiNNaker神经计算系统上线,加上前些年斯坦福大学的NeuroGrid等系统,全球已有十多套神经形态计算系统正在研制或发布。

此次发布的Darwin Mouse可实现多种智能任务,比如在抗洪抢险场景下,接受语音指令完成多个机器人的协同工作;记忆音乐、诗词、谜语,并实现听写、复述。

Darwin Mouse的神经元规模是此次研发的亮点之一。黄铁军表示,我国是类脑计算研究的后来者,尚处于技术追赶阶段,Darwin Mouse在神经元规模方面取得进步值得肯定。

据了解,类脑计算机的硬件主体是大规模神经形态芯片,这种芯片主要包括神经元阵列和突触阵列两大部分,从而构成神经元网络。神经元阵列和突触阵列规模以及模型复杂度是影响类脑计算机水平的重要因素。

“以后的一段时间内,神经元阵列和突触阵列规模以及模型复杂度将成为国内类脑计算机研发亟待追赶、突破的领域。”黄铁军说。

此外,Darwin Mouse的体积很大,由3个一人高的机柜组成,但研发人员充满信心。潘纲表示,世界第一台计算机重达28吨,能运算每秒5000次的加法,以后的70多年里,计算机技术飞速发展。类脑计算机的发展速度很有可能也会令人惊讶。

针对外界提出的制定类脑计算机的评价指标问题,吴华强认为为时尚早。“目前这个领域刚刚起步,尚处于初步探索阶段,并未形成成熟的路线和方案。过早制定评价标准或扼杀一部分创造力,会影响类脑计算百家争鸣、百花齐放的学术氛围。”他说。

“两端”有望吃到第一口螃蟹

“当前,类脑计算研究还处于初级阶段。Darwin Mouse类脑计算机,无论从规模还是智能化程度上都与真正的人类大脑有很大的差距。”潘纲表示,其意义在于能够为这种技术路径提供一个重要的实践样例,为研究人员提供一个工具和平台,验证类脑算法,以更强的鲁棒性、实时性和智能化去解决实际的任务。

“认识脑、洞察脑这个问题很难,数百年、数千年来从未解决。现在的神经形态计算还比较初步,其发展水平与现有主流人工智能算法相比,还存在一定差距。要实现终极目标,科学家们仍需努力。”黄铁军说。

吴华强表示,类脑计算的发展建立在对人脑深刻理解的基础上,此时人类的认知和技术积累与研发世界第一台计算机的时候已经不同,研究人员有信心研发出更加智能的类脑计算机。

“在对信息的编码、传输和处理方面,希望研究人员从大脑机制中获得启发,将这些想法应用到芯片技术上,让芯片的处理速度更快、水平更高、功耗更低。”吴华强说。

随着神经科学发展和类脑计算机的系统软件、工具链及算法的成熟,潘纲希望,Darwin Mouse能像冯·诺依曼架构计算机一样通用化,像大脑一样高效工作,与冯·诺依曼架构并存与互补以解决不同的问题。

“未来,类脑计算技术有望在‘两端’率先实现应用,一是应用终端,让人工智能产品更智能、更低功耗;二是服务器端,通过大规模集成实现高算力,可以为神经科学家提供更快、更大规模的仿真系统,以及探索大脑工作机理的新实验手段。” 吴华强说。

《中国科学报》 (2020-09-10 第3版 信息技术)
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
缓解肠易激综合征  饮食比服药更有效 银河系发现巨大黑洞
史上最亮伽马射线暴来自一颗坍缩的恒星 导师:年年审毕业论文,总有这些问题!
>>更多
 
一周新闻排行 一周新闻评论排行
 
编辑部推荐博文