首页
学习
活动
专区
圈层
工具
发布

全球首次!中国光计算芯片重大突破,用光代替电,AI算力或可提升一亿倍!

AI(人工智能)算力的尽头是电力,已经是共识!根据国际能源署(IEA)数据,到2026年,AI产业的电力消耗可能将是2023年的十倍以上,相当于整个日本的年用电量。这意味着电力将成为AI产业发展重要的限制条件之一,那如何才能走出“电力尽头”呢?疯狂扩产电能,比如全球焦点——可控核聚变,但规模商用尚需时日;于是半导体产业瞄准了——节能。

近日从上海交通大学传出消息,其科研团队成功研发出全球首款支持大规模语义生成模型的全光计算芯片LightGen,这一突破性成果于12月19日正式发表于国际顶级学术期刊《科学》,标志着我国在下一代智能计算芯片研发中已走在世界前列。

现有AI芯片(如GPU、TPU)依赖电子信号进行计算,受限于功耗、散热和传输延迟(“内存墙”问题)。光计算技术长期被视为后摩尔时代突破算力困境的重要方向。与传统电子芯片依靠电子运动进行计算不同,光计算利用光传播过程中的物理特性实现计算过程,具备高速、低功耗和高度并行化的天然优势。光计算虽在理论上具备超低功耗和并行优势,但长期受困于难以实现复杂逻辑运算和规模化集成。

此次LightGen的突破,正是通过创新性设计,LightGen可能实现了光计算单元与片上存储、控制电路的高效协同,解决了光计算在动态非线性计算(如神经网络中的激活函数)和模型参数动态加载中的难题。简单说,就是实现了光电的深度融合!

同时,LightGen也首次验证了光计算芯片支持千亿/万亿参数级别语义生成模型(如类GPT架构)的可行性,表明其在光子集成规模、信号保真度和系统稳定性上达到新高度。这意味着,实现了大规模可扩展性。

LightGen另外一个核心价值在于首次实现了全光方式下的大规模语义生成任务处理,彻底摆脱了对电子计算的辅助依赖。传统光计算多用于线性运算(如矩阵乘法),而生成式AI需处理复杂的注意力机制、非线性变换等。LightGen利用光的干涉、衍射等物理特性,直接在光域实现注意力权重计算,大幅减少数据在存储与计算单元间的移动。这使得芯片可能具备可编程光子回路,能根据不同模型层动态调整光路结构,实现“一芯多用”。

值得注意的是,光计算理论上可实现超低功耗(光子传输几乎无发热)和超高并行度(光波分复用技术)。若LightGen在实测中达到比现有芯片高1-2个数量级的能效比(TOPS/W),将直接挑战传统硅基芯片的物理极限。

因此,此次LightGen的横空出世,首先,颠覆了AI算力供给模式。其打破“功耗墙”与“内存墙”,若LightGen实现规模化应用,数据中心可大幅降低冷却成本和电力消耗(目前全球数据中心耗电量占比约2%),同时解决数据传输瓶颈,为千亿参数以上大模型提供实时推理能力。同时,光计算的低功耗特性可能使ChatGPT级模型运行在手机、自动驾驶车辆等终端设备上,实现真正的“智能无处不在”。

其次,重构芯片产业竞争格局。当前中国高端AI芯片受制于先进制程工艺(如3nm以下EUV光刻)。光计算依赖光子器件设计而非晶体管微缩,为中国在半导体领域开辟“换道超车”路径,或将是中国突破技术封锁的契机。

当然,在这过程也必将催生新硬件生态。从设计工具(光子EDA)、材料(硅光、铌酸锂等)到制造(光子Foundry),可能形成全新产业链,降低对传统硅基生态的依赖。

但依然挑战重重。LightGen目前可能处于实验室原型阶段,光计算仍需解决工艺良率、与现有电子系统的兼容性、标准化接口等问题。真正实现商业化或还需要5-10年的迭代。同时,还需要在算法上进行迭代,现有AI框架(如PyTorch)需适配光计算特性,开发新的编译器和编程模型;从而真正实现算法与硬件的协同优化。

其实,目前光计算领域,除了中国在持续加码之外,美国(如Lightmatter、Lightelligence等初创公司)、欧洲(IMEC等研究机构)也在加速布局,这依旧要求LightGen需在知识产权和产业落地上保持领先。

因此,此次上海交通大学的LightGen芯片不仅是实验室技术的突破,更是从底层物理层面重构计算范式的里程碑。它标志着光计算从“理论优势”迈入“实用化验证”的关键阶段,有望成为解决AI算力危机的重要选项。未来若能与硅基芯片形成异构计算体系,或将开启“后摩尔定律”时代的新计算革命。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OmGmvdiXPKS4y_DDFyZE6R3g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券