|
|
|
|
|
中国“光计算芯片”降维打击英伟达GPU?研究团队回应 |
|
|
文|《中国科学报》记者 赵广立
不久前,上海交通大学集成电路学院张文军院士团队的“全光计算芯片”最新成果在《科学》(Science)杂志在线发表并获得编辑部Highlight重点推荐。在这篇题为《大规模智能语义视觉生成全光芯片》的论文中,研究团队提出的全光大规模语义生成芯片“LightGen”,被认为是一把破解人工智能(AI)对算力黑洞般需求的钥匙。它在某些特定任务中的计算速度、能效,比顶尖数字芯片(如英伟达A100芯片)高出至少2个数量级。
相关论文截图
对于该成果,上海交通大学集成电路官网给予了高度评价:LightGen为新一代算力芯片助力前沿人工智能“开辟了新路径”,也为探索更高速、更高能效的生成式智能计算“提供了新的研究方向”。
权威期刊背书、官方认证,媒体也纷纷予以关注和报道,“降维打击”“换道超车”等论调甚嚣尘上。然而,对于这样一款尚存在于论文中的芯片,它能否达到人们对“下一代算力芯片”的预期?它在特定任务中所展现出来的对顶尖数字芯片的“降维打击”,能否真的兑现?
为此,论文作者、上海交通大学教授翟广涛近日接受《中国科学报》专访,并对相关疑问作出了回应。
翟广涛课题组合影
《中国科学报》:请用通俗的话,解释一下光计算芯片与电子芯片有何不同?
翟广涛:
可以从计算方式的差异来理解。电子芯片的信息载体是电信号,主要靠晶体管开关切换来计算,规模越大就越容易被功耗、延迟、发热这些现实问题“拖住”;光计算是把信息编码到光上,通过光场传播把大量运算并行地计算出来,在速度和能耗上有很强的潜在优势。可以类比为,电芯片就像是铜线电话传消息,以电信号为载体;而光计算芯片则像光纤宽带,速度更快、能耗更低。
举个例子,我们的眼睛可以近似理解为简易的光计算:它可以将物体的“像”从一个位置成像到视网膜上。我们研发的光计算芯片则比这复杂得多,通过光的振幅、相位、频率、偏振等搭载信息,完成更复杂任务,如大规模AI和端侧高速AI计算等。
《中国科学报》:为什么光芯片在AI计算任务中,相比传统电子芯片有更大优势?
翟广涛:
首先,光子的物理特性,天生适配AI对计算“高速+低耗”的需求。光子传播速度是光速(约3×10?m/s),而电子在芯片中的迁移速度仅为光速的千分之一。AI计算(尤其是生成任务)需要大量数据的传输与运算,光子的高速传播能大幅减少“数据搬运延迟”。同时,电子在导体中运动时会因电阻而产热,这是电子芯片能耗高的一大重要原因(比如GPU运行时需要大型散热设备);而光子传播过程中几乎无能量损耗。
其次,AI模型(尤其是生成式AI)的核心是“大规模并行运算”,比如处理512×512像素图像时,需要同时对几十万级像素点进行特征提取、矩阵运算。电子芯片受“冯?诺依曼架构”限制,数据需在存储器和运算器之间来回传输,并行度往往被硬件结构制约,而光子可以“多通道独立传播”,可减少分批次运算,光计算芯片的并行性相较电子芯片更具潜在优势。
同时,光计算芯片的优势,本质是“光子的物理特性与AI计算的核心需求高度契合”——AI需要“高速并行、低能耗、高算力密度”,而光子的“光速传播、极低损耗、天然并行”特性,恰好精准匹配这些需求。传统电子芯片则受限于“电信号传输延迟、能耗与发热约束、集成极限”,难以在这些维度突破。这也是为什么光计算芯片能在AI计算中展现出数量级的性能优势的原因。
《中国科学报》:既然光芯片在速度和能耗方面有天然优势,为何过去它没能在计算芯片中“挑大梁”?
翟广涛:
这几年大模型和生成模型发展很快。模型规模显著增长后,算力和能耗需求带来的压力就更加明显。传统芯片架构的性能增长速度,跟这种需求之间出现了更大的缺口,所以大家开始关注新的计算范式。
在这个大背景下,光计算等新架构也会被反复提及。然而,传统全光计算芯片更多停留在小规模、分类任务;一旦引入光电级联或复用,速度会被削弱,放到复杂生成任务上,就更难体现端到端的速度和能效优势。
换言之,此前光计算芯片之所以未被大规模应用、没能成为核心算力芯片,本质是三大瓶颈的叠加——集成规模撑不起算力、维度变化适配不了任务、训练算法对接不上需求。这三大问题让光子计算的“高速低耗”优势只能停留在实验室的简单任务中,无法转化为支撑大规模AI的实际算力,最终只能“边缘化”,难以“挑大梁”。
翟广涛
《中国科学报》:你们团队的这项研究,针对你上述提到的光计算芯片的瓶颈,有哪些突破?
翟广涛:
论文的核心亮点就是同时突破了领域内三个公认的瓶颈:百万级光学神经元集成、全光维度转换、无真值光芯片训练算法。
我们采用高度集成的衍射超表面技术,通过对多层超表面进行纳米级深度刻蚀的结构设计以实现对光的精准调控,成功在芯片中集成了数百万个光子神经元,为生成任务需要庞大的神经元规模问题提供了方案。
同时,团队还研发出一种专为生成式光子计算系统量身打造的训练算法,不依赖预定义真值的训练算法,解决了生成式光子芯片如何训练的问题。
《中国科学报》:论文中提到,LightGen在端到端的计算速度和能效上远超英伟达A100图形处理器。有观点认为,将尚未产品化的光子芯片与成熟的GPU横向对比意义有限,且目前的优越性更多体现在理论层面,还未能在产业中证明自己。你和团队对此作何评价?
翟广涛:
对于这类讨论,我们理解其谨慎态度。光子芯片仍处于从实验验证走向更成熟体系的阶段,与成熟GPU进行横向比较时,外界更审慎是正常的。
我们论文采用的是端到端耗时与耗能的直接测量口径:在生成质量与前沿电子神经网络相近的同时,比较系统层面的速度与能效。需要强调的是,大规模生成式任务本身往往较慢,对端到端时延与能耗尤其敏感,许多真实场景也确实会受这两点制约,因此下一代算力芯片能否有效支撑这类任务具有现实意义。
从这个角度看,论文结果是在端到端口径下,展示了全光路线在大规模生成式任务上的可行性与潜力;同时也说明了若干关键难点突破对于全光片上实现大规模生成式网络的重要意义,为下一代算力芯片面向生成式智能计算提供了一条可持续探索的路径。
《中国科学报》:近年来,光子芯片领域常常给人“雷声大雨点小”的印象,对此你怎么看?
翟广涛:
前沿方向在从概念走到可验证、再到可用体系的过程中,外界会有“雷声大雨点小”的担忧,这个我们理解。光子芯片这条路过去经常被反复讨论,主要是因为很多全光计算芯片停留在小规模、分类任务上。面对复杂的任务,光电级联或复用带来的速度能效优势损失会更明显,与大规模生成式任务还有距离。
而像LightGen这种前瞻性的工作,突破性在于将全光芯片的适用范围拓展到了大规模生成式神经网络。我们更希望用长期的视角去看它的价值。
《中国科学报》:LightGen解决了一个什么层面的问题,它最大的现实意义是什么?
翟广涛:
从近几年大模型的发展节奏看,模型能力持续增强,应用也在加速走向生产生活。与之相伴的是,大规模模型带来的端到端时延与能耗压力不断凸显。许多生成式任务对这两点高度敏感,往往也会因此受限。
在这样的背景下,学术界和产业界才会更广泛地关注下一代算力芯片。核心诉求很明确:芯片要能够执行真实世界需要的任务,尤其是大规模生成模型相关任务。
LightGen瞄准的正是这一层面——面向大规模生成式智能计算给出一条新的路径,使新一代算力芯片更贴近前沿人工智能的实际需求,同时为更高速、更高能效的生成式智能计算拓展了新的研究方向。
《中国科学报》:你们是怎么想到这个解决方案的?研究中最困难的地方是什么?
翟广涛:
早在2019年,我们的助理教授陈一彤(此次论文第一作者)就开始思考如何以全光实现生成式模型,并在Science Advances发表了国际首个全光生成式网络。思考这个想法时,当前流行的生成式模型尚未大举走入公众视野,也未引起广泛的关注。
陈一彤(右)指导学生
在进一步推进时我们发现,真正困难的地方在于,下一代算力芯片能否执行真实世界所需的任务,尤其是大规模生成模型这类对端到端时延与能耗很敏感的任务。
围绕“让下一代算力光芯片支持复杂生成模型”这个公认难题,我们一步步推进,最终形成了全光大规模语义生成芯片LightGen,这也是国际首次实现的大规模全光生成式AI芯片。
这个过程不是灵光一现。我们把问题拆开逐步解决,先确认关键瓶颈,然后反复推敲,中间也踩过不少坑,最后逐渐迭代才形成现在的成果。
《中国科学报》:与过往一些光计算芯片相比,你们有哪些不同?
翟广涛:
过去很多全光计算芯片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度,所以如何让下一代算力光芯片能运行复杂生成模型一直是一个难题。
我们这项工作则是面向真实世界所需的任务,将全光芯片的适用范围拓展到了大规模生成式神经网络。这是业内首次实现的大规模全光生成式AI芯片,实验覆盖了高分辨率(≥512×512)图像语义生成、3D生成、高清视频生成及语义调控、去噪、局部及全局特征迁移等多项大规模生成式任务。
更关键的是,我们不是用电辅助光生成的方式,而是让全光芯片完整走完输入图像、理解语义、语义操控、生成全新媒体数据的端到端过程,让光具备“理解”和“认知”语义的能力。
《中国科学报》:从这项成果出发,团队未来在技术路线和产品化思路上有哪些规划?
翟广涛:
技术上,我们会继续沿着新一代算力芯片这条主线推进,围绕大规模模型相关任务在端到端时延与能耗上的真实需求上持续深入。我们认为,LightGen有望率先在内容生产流程中实现应用,如实时预览、极速出图等最“吃”算力且最需要实时反馈的环节。
产业化层面,我们已经与工业界合作开展应用实践,后续将继续与产业方密切合作,使研究更紧密对接真实需求。
实习生张昊睿对本文亦有贡献
相关论文信息:
science.org/doi/10.1126/science.adv7434
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。