用光速加速AI?Nature最新研究,打破你的“次元壁”!

共 2400字,需浏览 5分钟

 ·

2021-01-09 11:37



  新智元报道  

来源:Nature
编辑:keyu
【新智元导读】面对海量的数据,硬件设备是否能跟上,是当今挑战AI发展的一个巨大问题。而本周发表在《Nature》上的研究结果,证明了将光子结构用于AI是可行的,并具有不可忽视的潜力。使用光学原理,设备可以可以快速,并行地处理信息,而这是当今电子芯片无法做到的。

当今时代,人工智能正在对各种领域产生巨大的影响,如临床诊断、自动驾驶和语音翻译。
 
然而,无论是在计算速度还是功耗方面,现代社会快速增长的数据量都对其电子计算硬件提出了巨大的挑战。
 
而这些问题,已经成为人工智能的主要瓶颈
 
而近日,《自然》杂志上刊登的一篇文章中给出了未来可能的解决方案:


光子处理器可以通过利用光的独特特性,来加速人工智能的处理过程。

 

从更深远的角度来讲,这可能会激发光学计算的复兴。




传统计算逐渐临界极限,光子计算起步艰难


随着人工智能的崛起,传统的电子计算方法正逐渐达到其性能极限,大大滞后于可处理数据的快速增长。
 
在各种类型的人工智能中,人工神经网络因其优异的性能而被广泛应用于人工智能任务中。
 
这些网络使用多层相互连接的人工神经元进行复杂的数学运算。
 
为了加速人工神经网络的处理,人们作出了各种努力来设计和实现特定的电子计算系统。
 
特别值得一提的是,在专用集成电路、大脑灵感计算和内存计算等定制芯片的应用上,这些努力已经取得了相当大的成功,这些芯片通过一系列称为记忆电阻器的内存设备就地进行处理。
 
在电子计算中,电子是信息的载体,但光子一直被认为是另一种选择。


由于光谱覆盖的波长范围很广,许多不同波长的光子可以同时复用(平行传输)和调制(改变方式使它们可以携带信息),而不会使光信号相互干扰。这种信息以光速传播可以具有最小的时间延迟。

 

此外,无源传输(不需要输入功率)有助于超低功耗,而相位调制(光波的量子力学相位变化)使光在频率大于40千兆赫时易于调制和检测。

 

在过去的几十年里,光纤通信取得了巨大的成功。然而,使用光子进行计算仍然具有挑战性,特别是与最先进的电子处理器相比,在规模和性能水平上并不能达到最理想的效果。

 

这一困难主要来自于缺乏允许人工神经元的高速非线性(复杂)响应,以及可扩展的光子器件来集成到计算硬件的合适的并行计算机制和材料。

 

光频梳成为“救世主”,速度超群


幸运的是,过去几年中,被称为光频梳(optical frequency combs)的设备的发展,为集成光子处理器带来了新的机会。
 
光学频率梳是一组具有发射光谱的光源,它由数千条或数百万条频率均匀且紧密间隔的锐利谱线组成。
 
这些器件在光谱学、光学时钟计量和电信等各个领域都取得了巨大的成功,并获得了2005年诺贝尔物理学奖。
 
光频率梳可以集成到计算机芯片中,作为光计算的高效能源,该系统非常适合采用波长复用技术进行数据并行处理。
 
Xu和他的同事们利用这样的装置,生产出了多功能集成光子处理器。这个设备执行一种矩阵-向量乘法,我们可以将其称为应用在图像处理上的卷积。

这是一种可以实现卷积的巧妙的方法:
 
他们首先使用了色散(即透射光的速度取决于其波长)来为波长复用的光信号产生不同的时间延迟。然后,他们沿着与光的波长相关的维度组合这些信号。
 
通过充分利用光子波长的广泛范围,Xu等人实现了不同卷积运算的内在并行计算。
 
光计算的速度超过了10万亿次/秒(单核),并且仅仅受到数据吞吐量的限制。
 
这项工作的另一个值得欢迎的特点是,作者确定了他们的光子卷积处理器在实际应用中的用处
 
特别地,他们建议处理器可以用于混合光电子框架,例如在光纤通信中的实时计算中。
 
该论文的主要作者之一费尔德曼和他的同事们独立研制了一个集成光子处理器,它可以执行跨越二维空间的光信号卷积。


该设备在一种基于相变材料(一种可以在非晶相和晶体相之间切换的材料)的“内存”计算架构中使用光频率梳。
 
作者通过波长复用对输入数据进行了充分的并行处理,并利用相变材料的集成单元阵列进行了类似的矩阵向量乘法运算。
 
这样是一个高度并行化的框架,可以在单个步骤中高速处理整个图像。
 
此外,理论上,在不久的将来,通过商业制造和对实例机器学习的辅助,该系统可以得到持续的大幅扩展。
 
由于卷积过程涉及到无源传输,理论上,光子处理核心的计算能够以光速和低功耗进行。这种能力对于能源密集型应用程序(如云计算)非常有价值

 

跨学科合作必不可少,全光计算征途依旧漫漫


考虑到传统电子计算方法面临的挑战,集成光子学的出现是令人兴奋的,它作为一个潜在的“接班人”,为未来的计算架构实现前所未有的性能。
 
然而,如果需要建造一个实用的光学计算机,那么广泛的跨学科交互的尝试,以及材料科学、光子学、电子学等领域的研究人员之间的合作是必不可少的。
 
尽管目前呈现出来的光子处理器具有较高的单位面积计算能力和潜在的可扩展性,但全光计算规模(光学人工神经元的数量)仍然很小。


此外,由于存在固有的吸收光的计算元件,以及光电信号经常需要转换这一事实,实际情况下的能源效率其实是受到限制的。
 
对于光子计算,这里还存在另外一条研究方向:
 
研究者可以发展先进的非线性集成光子计算架构,而不是单一或二维的线性卷积。
 
通过将电子电路和数千或数百万光子处理器集成到合适的架构中,一种利用光子和电子处理器的混合光电框架的出现,可能在不久的将来给人工智能硬件带来革命性的变化。
 
这些硬件将在通信、数据中心操作和云计算等领域有重要的应用。
 
参考链接:
https://www.nature.com/articles/d41586-020-03572-y





浏览 51
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报