微信公众号“科创闵行”消息,北京时间12月19日,上海交通大学集成电路学院(信息与电子工程学院)图像通信与网络工程研究所陈一彤课题组在新一代算力芯片领域取得重大突破,首次实现了支持大规模语义媒体生成模型的全光计算芯片。相关研究以“All-optical synthesis chip for large-scale intelligent semantic vision generation”(大规模智能语义视觉生成全光芯片)为题,发表于国际顶级学术期刊《科学》(Science)上。上海交通大学为论文第一作者和通讯作者单位,陈一彤助理教授为第一作者及通讯作者。

随着深度神经网络和大规模生成模型的迅猛演进,人工智能正以前所未有的速度革新世界。然而,规模爆炸式增长的生成模型带来了超高算力和能耗需求,这与传统芯片架构的性能增长速度形成了日益严峻的紧迫缺口。

为突破算力与能耗瓶颈,光计算等新型计算架构受到了广泛关注。然而,传统的全光计算芯片主要局限于小规模分类任务,且光电级联或复用会严重削弱光计算速度。因此,“如何让下一代算力光芯片能够运行复杂生成模型”成为全球智能计算领域的公认难题。
研究团队首次提出了全光大规模语义生成芯片LightGen,成为国际首次实现的大规模全光生成式AI芯片。该芯片在单枚芯片上同时突破了百万级光学神经元集成、全光维度转换、无真值光芯片训练算法等领域公认的技术瓶颈。

论文实验验证了全光芯片LightGen在高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控、去噪、局部及全局特征迁移等多项大规模生成式任务中表现卓越。LightGen实现了输入图像、理解语义、语义操控、生成全新媒体数据的完整端到端过程,真正实现了光“理解”和“认知”语义的能力,而非依赖电辅助光生成。

此外,LightGen采用了极为严格的算力评价标准。在实现与电子神经网络如Stable Diffusion、NeRF、Style Injection Diffusion等前沿模型相似的生成质量同时,系统端到端的耗时与耗能均显著降低。实测表明,即便采用较滞后的输入设备,LightGen仍可实现相较顶尖数字芯片2个数量级的算力提升和2个数量级的能效提升。如果采用前沿设备,消除信号输入频率瓶颈,LightGen理论上可实现算力提升7个数量级、能效提升8个数量级的巨大飞跃。这不仅体现了在无性能损失的前提下替换顶尖现有芯片所带来的算力和能效巨大提升,也验证了克服大规模集成、全光维度变换、无真值光场训练等关键技术难题,在全光芯片上实现大规模生成式网络的重要意义。
论文同时被《Science》官方选为高光论文重点报道。文中指出,生成式AI正加速融入生产与生活,要让“下一代算力芯片”在现代人工智能社会中真正实用,势在必行的是研发能够直接执行真实世界任务的芯片,尤其是对于端到端时延和能耗极其敏感的大规模生成模型。面向这一目标,LightGen为新一代算力芯片真正助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。
陈一彤博士长期致力于光计算领域研究,聚焦新一代算力芯片在实际应用中的核心科学难题。团队此前提出的全模拟光电芯片ACCEL(发表于Nature 623 (7985),48-57)国际首次实测验证了复杂智能任务中的光计算系统级算力优势,实现了光计算芯片超高算力与能效无损接入复杂成熟的数字社会。2023年提出的PED(Photonic Encoder Decoder,发表在Science Advances 9(7),eadf8437)光计算架构,更被Science子刊认证为“国际首个全光生成网络(PED is the first demonstration of all-optical generative neural networks)”。基于上述研究,LightGen突破性地拓展了全光芯片在大规模生成式神经网络中的适用范围,且已与工业界合作开展实际应用。
上海交通大学集成电路学院(信息与电子工程学院)陈一彤助理教授担任第一作者及通讯作者,翟广涛教授、张文军院士、博士生孙心玥,清华大学硕士生谭龙涛、博士生姜一洲、博士后周银等均为本文贡献重要力量。该研究获得多项国家及上海市项目资助支持。
https://news.sina.com.cn/c/2025-12-20/doc-inhckesc2055377.shtml