新闻动态
光速算力:AI 的下一程,可能藏在一道光里
发布日期:2025-12-05 04:03:09 点击次数:86

点击关注不迷路

最近,一条科技新闻悄悄刷屏了学术圈和工程师的朋友圈:

芬兰阿尔托大学牵头的国际团队,在《自然·光子学》上发表了一项成果。

他们用一道光,完成了传统计算机需要反复运算几十甚至上百次才能搞定的复杂张量计算。

听起来很抽象?

别急,咱们先从一个日常场景说起。

你有没有想过,为什么现在的 AI 越来越“聪明”,但手机却越来越烫、电费越来越高?

比如你用语音助手问天气,背后其实是成千上万次的数学运算在支撑;

你刷短视频时,平台要实时判断你喜欢什么内容,这背后是庞大的神经网络在高速运转。

而这些运算的核心,就是“张量计算”。

简单理解,张量就是比普通数字更复杂的结构:

你可以把它想象成一个多维魔方。

AI 模型训练的过程,本质上就是在不断旋转、切割、重组这个魔方,直到它能准确预测你想看什么、你说的是什么。这个过程极其耗能,也极其依赖硬件。

目前,我们主要靠 GPU(图形处理器)来做这些事。

GPU 确实强大,但它终究是电子器件,靠电流在硅片上传递信息。

电流有速度上限,还会发热,功耗高得吓人。

全球数据中心每年消耗的电力,已经接近一些中等国家的全国用电量。

AI 越跑越快,但硬件快被“烧”到极限了。

这时候,科学家们把目光投向了一个老朋友:光。

光,每秒跑 30 万公里,几乎不发热,还能同时走无数条路径,这就是天然的“并行计算”。

过去几十年,光学计算一直是个热门研究方向,但大多停留在理论或小规模实验阶段。

直到这次,阿尔托大学的团队真正迈出了一大步:他们让光在一次传播中,就完成了整个张量运算。

怎么做到的?

他们把数据“写”进光里,不是用 0 和 1,而是用光的“亮度”(幅度)和“波形节奏”(相位)。

当这些携带信息的光波穿过特定设计的光学系统时,它们会自然地相互干涉、叠加,就像水波相遇会产生新的波纹一样。

而这种物理现象,恰好对应着矩阵乘法、卷积、注意力机制等 AI 最常用的数学操作。

换句话说,传统计算机要一步步算的事,光在穿过一块特殊玻璃(或芯片)的瞬间,就全算完了。

打个比方:

以前分拣快递,得先过安检机,再称重,再扫码,最后按区域分堆,每一步都要停一下。

而现在,所有包裹一进门,就被一道光“扫”过,所有信息同步处理,出口处直接分好类,连机器都不用动。

更妙的是,他们还用了“多色光”:

不同颜色的光,比如红光、绿光、蓝光各自携带不同维度的数据,互不干扰,相当于开了多条高速公路同时跑车。

这样一来,高阶张量也能处理了。

这项技术最大的优势,不是快,而是“省”。

因为整个过程不需要电子开关、不需要反复读写内存、不需要主动调控,所有计算都在光被动传播中完成。

这意味着能耗极低,散热压力小,特别适合部署在对功耗敏感的场景,比如自动驾驶汽车、无人机、边缘服务器,甚至是未来的手机。

当然,现在还处于实验室阶段。

从原理验证到量产应用,中间还有很长的路要走。

比如如何高效地把电子数据转换成光信号?

如何制造稳定可靠的集成光子芯片?

如何实现非线性激活函数,这是神经网络的关键环节?

这些问题都需要工程上的突破。

但方向已经清晰:

用光子代替电子做计算,可能是突破当前 AI 算力瓶颈的一条可行路径。

其实,这并不是光学计算第一次进入公众视野。

早在 2018 年,加州大学洛杉矶分校就用 3D 打印做出了一种“衍射神经网络”,成本不到 50 美元,能以光速识别手写数字。

去年,清华大学提出的 FFM 训练方法,也让光学神经网络的准确率大幅提升。

麻省理工、Lightmatter 等机构和公司,也在积极推进光子芯片的研发。

为什么现在突然加速了?

因为 AI 大模型真的“吃”不动了。

GPT-4、Claude、Qwen 等千亿参数模型,训练一次动辄花费上亿美元,耗电量堪比一个小城市运行数月。

企业一边喊着“降本增效”,一边被算力成本压得喘不过气。

行业急需一种更高效、更绿色的计算范式。

而光学计算,恰好踩在了这个痛点上。

值得注意的是,这次阿尔托大学的方法,强调“无需主动调控”,这意味着系统结构可以做得更简单、更可靠。

不像某些可编程光子芯片需要复杂的控制电路,他们的方案更像是“一次性设计、永久使用”,特别适合执行固定任务,比如图像识别、语音转写这类推理场景。

这也引出了一个现实问题:

光学计算不会完全取代电子计算,而是“各司其职”。

未来,我们很可能看到一种混合架构:

电子芯片负责逻辑控制、存储和灵活调度,光学模块专门处理大规模并行计算。

就像人脑,既有快速反应的反射弧(光计算),也有深思熟虑的前额叶(电子计算)。

从产业角度看,中国也在积极布局。

近年来,国内高校和企业在集成光子、硅光芯片、光互连等领域投入大量资源。

虽然起步稍晚,但在应用场景和制造能力上有优势。

如果能在标准制定和核心器件上取得突破,完全有机会在下一代 AI 硬件中占据一席之地。

回到普通人关心的问题:这事跟我有什么关系?

短期看,可能感觉不到。

但长期来看,它会影响你用 AI 的体验。

比如,未来的手机或许能本地运行强大的 AI 助手,不用联网也能实时翻译、生成图片,而且不发烫、不耗电;

自动驾驶汽车能在毫秒内处理摄像头和雷达数据,反应更快更安全;

医疗影像分析可以在基层医院即时完成,不再依赖云端服务器。

更重要的是,它可能让 AI 变得更“普惠”。

现在,只有巨头公司玩得起大模型,因为算力太贵。如果光学计算能把能耗降几个数量级,那么中小企业、科研机构甚至个人开发者,都能负担得起高性能 AI 推理设备。创新的门槛会降低,应用的边界会拓宽。

当然,我们也要保持理性。

科学突破不等于产品落地。历史上,太多“ promising technology”(有前景的技术)倒在了工程化和商业化的路上。

光学计算面临材料、工艺、集成度、成本等多重挑战。

阿尔托大学的张宇峰博士也坦言,乐观估计,三到五年内才可能看到初步集成。

但这不妨碍我们关注它的潜力。

人类每一次计算范式的跃迁,都带来了社会的巨大进步。

从机械计算到电子管,从晶体管到集成电路,再到今天的 GPU 与 TPU,算力的提升始终是技术革命的底层引擎。

现在,光,正站在下一个拐点上。

它不喧嚣,不张扬,只是安静地穿过一片芯片,却可能承载着 AI 下一个十年的重量。

说到底,技术的本质是解决问题。

当电子走到物理极限,光便成了自然的选择。

这不是谁战胜谁的故事,而是人类如何巧妙利用自然规律,让机器更好地服务人的故事。

所以,下次当你对着手机说“帮我订一张机票”时,不妨想象一下:

也许不久的将来,这句话背后的万千计算,就由一道温柔的光,在无声中完成了。

那道光,不刺眼,却足够照亮前路。

(全文完)

友情链接: