作者:刘明等 来源:《自然—机器智能》 发布时间:2023/2/28 18:58:01
选择字号:
图网络存内计算研究获进展

 

入选封面文章

深度学习技术作为AI的重要引擎,近年来受到关注并得到飞速发展。图神经网络(Graph Neural Network)是较新的深度学习技术,可用于处理更复杂的非结构化数据,广泛应用于社交网络、电子购物、药物预测、人机交互等应用场景。随着数据量的急速膨胀,亟待提升传统CMOS数字硬件系统中运行图神经网络的效率,同时,图神经网络的训练过程日趋复杂使得训练能耗居高不下。基于阻变忆阻器(RRAM)的存内计算技术虽可显著缓解传统数字硬件系统中的冯·诺依曼瓶颈、进一步提升计算效率,但受到高擦写功耗、延时以及一定的编程阻值随机性等器件非理想特性的限制。

中国科学院微电子研究所微电子器件与集成技术重点实验室刘明院士团队研究员尚大山与香港大学电子工程系博士王中锐合作,开发了利用储池计算(Reservoir Computing)技术实现图结构化数据分类的技术——回声状态图网络(ESGNN)。储池计算是循环神经网络的简化形式,能够将时序输入信号通过神经元的非线性激活函数转换到一个高维空间中,再通过简单线性回归方法有效地读出。储池计算中循环连接层的权重始终固定不变,只需训练输出层权重,可最大限度降低训练复杂度和训练时间。在硬件方面,该团队利用RRAM的本征随机性构建大规模随机电阻阵列(图1a-b),将其作为储池网络的初始化权重,具有低成本、可扩展优势。在软件方面,ESGNN巧妙地运用随机电阻阵列带来的物理随机投影,以存内计算的方式完成图嵌入过程,降低了图神经网络的训练成本。进一步,该团队采用软-硬协同优化技术,在基于FPGA的板级测试平台上实现了对MUTAG、COLLAB数据集的图分类,进行了更大规模CORA数据集的节点分类仿真。相比传统数字硬件系统,能效分别提升了2.16、35.42和40.37倍。该工作展现了RRAM阵列在构建边缘图学习系统方面的潜力,并为利用自然界丰富的物理性质、化学性质开发出更高效的智能硬件系统提供了参考。

图1.基于随机电阻阵列的回声状态图神经网络学习过程的软-硬协同设计

图2.采用ESGNN实现MUTAG数据集的分子图分类

近期,相关研究成果发表在《自然·机器智能》(Nature Machine Intelligence)上,并入选当期封面文章。研究工作得到科技部、国家自然科学基金、科院香港大学的支持。复旦大学、浙江大学、意大利比萨大学和香港科技大学等的科研人员参与研究。(来源:中国科学院微电子研究所)

相关论文信息:https://doi.org/10.1038/s42256-023-00609-5

 
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
40亿年前生命如何产生?室温水中找答案 国之重器“神农设施”启动建设
另辟蹊径开发“水稻癌症”新型杀菌剂 高稳定太赫兹半导体双光梳研究获新突破
>>更多
 
一周新闻排行
 
编辑部推荐博文