作者:江庆龄 来源: 中国科学报 发布时间:2025-12-22
选择字号:
全光大规模智能生成芯片问世

 

本报讯(见习记者江庆龄)上海交通大学集成电路学院长聘教轨助理教授陈一彤课题组在新一代算力光芯片方向取得新突破,首次实现了支持大规模语义视觉生成模型的全光计算芯片LightGen,为新一代算力芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。12月19日,相关研究成果发表于《科学》,并被选为高光论文重点报道。

从一句话生成一张图,到几秒钟生成一段视频,生成式人工智能正在走向更复杂的真实世界应用。而模型越大、分辨率越高、生成内容越丰富,对算力与能耗的需求就越惊人,后摩尔定律时代,面向未来的研究焦点转向光电计算等“下一代算力芯片”。然而,当前光电芯片距离支撑前沿大规模生成模型还有不小距离,如何让下一代算力光芯片运行复杂生成模型,是全球智能计算领域公认的难题。

据介绍,LightGen在单枚芯片上同时突破了3项领域公认的关键瓶颈,即单片上百万级光学神经元集成、全光维度转换、不依赖真值的光学生成模型训练算法,使得面向大规模生成任务的全光端到端实现成为可能。LightGen展示的并不是电辅助光去做生成,而是让全光芯片完整实现“输入—理解—语义操控—生成”的闭环。实验验证结果显示,LightGen可完成高分辨率(≥512×512)图像语义生成、3D生成、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务。

在性能评估上,LightGen采用了极严格的算力评价标准,在实现与电芯片上运行的多种前沿电子神经网络相仿生成质量的前提下,直接对端到端耗时与耗能进行测量。结果显示,即便采用较滞后性能的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力提升、2个数量级的能效提升。而如果采用前沿设备使信号输入频率不是瓶颈的情况下,LightGen理论可实现算力提升7个数量级、能效提升8个数量级的性能跃升。

系列结果证实了在不牺牲生成效果的情况下,用全光方案替换现有方案可能带来的巨大增益,也从侧面印证了大规模集成、全光维度变换与无真值训练等难点被系统性解决后,全光片上承载大规模生成网络的现实意义。

相关论文信息:

http://doi.org/10.1126/science.adv7434

《中国科学报》 (2025-12-22 第1版 要闻)
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
我国发现镍铋新矿物金秀矿 中国天眼:“聆听”宇宙深处
太空有一颗散发诡异气息的“邪恶柠檬” AI辅助抗体设计进入快车道
>>更多
 
一周新闻排行
 
编辑部推荐博文