几十年来,摩尔定律一直在半导体行业中起着支配作用,每块微芯片中的晶体管数量大约每两年翻一番。但从这些芯片的能源消耗来看,摩尔定律已经开始崩溃了。以前,每一个逻辑操作的能耗随着每一代新芯片的出现而迅速下降。现在,这一趋势是持平的,或者只是略微下降,导致性能的提高大大降低。
由于人工智能的飞速发展,这一能源问题变得更加紧迫,现在互联网搜索、语言翻译、图像识别和自动驾驶汽车都在使用人工智能。谷歌等科技公司已经设计出使数字人工智能计算更有效率的方法。
但一些专家认为,对处理的需求将变得非常迫切,以至于需要一种全新的技术:光子计算。
美国公司Ayar Labs正在开发和销售的TeraPHY光学I/O“芯片”的晶圆。
光子计算机不是通过将电流设置成0和1来编码和操作数据,而是依靠光的物理、模拟特性。数据通常表示为激光束的振幅或相位的变化,并在光束穿过一系列适当启动的光学元件时被处理。这一切都以光速进行,消耗的能量不超过为激光源供电所需的能量:处理时间和能量需求都与输入大小无关。
直到最近,关于光子计算机的工作主要局限于分立的实验室实验。但集成光子学已经改变了这一状况,使扩大这种技术的规模变得更加容易,并为商业产品打开了大门。其结果是创建了大约十几家初创公司,提出了这样的前景:在经历了几十年的挫折之后,光学技术可能最终挑战强大的晶体管。
这些公司之间已经筹集了数亿美元的资金,雇用了一些光子学和计算机领域最聪明的人,并与领先的跨国公司建立了伙伴关系。虽然有些公司最终可能无法生存,但英国牛津大学分拆公司Salience Labs的创始人Harish Bhaskaran说,每家公司都在试图解决潜在的巨大市场中的一个略微不同的部分。他说:“这是一个巨大的空间,有足够的空间容纳许多公司。”
Salience Labs是英国牛津大学Harish Bhaskaran实验室的衍生公司,正在努力实现人工智能应用的混合电子-光子芯片的商业化。
当科学家们在20世纪60年代开始研究光学计算时,他们的目标是建立专门用于相当具体任务的设备。特别是,他们希望利用相干光束通过镜头所形成的图像是输入场的傅里叶变换这一事实。光学相关器采用了两个空间光调制器和两个透镜,将输入信号的傅里叶变换与预定的光学滤波器进行比较:这在原则上可以实现目标识别和信号处理,例如用于合成孔径雷达。
很多公司都在尝试将这种技术商业化。一些公司已经倒闭,而其他公司则在不断发展。
2001年,工程师Nick New在英国成立了Cambridge Correlators公司,销售用于模式识别的光学相关器。然而,从那时起,他成立了一家名为Optalysys的新公司,用硅光子学和电子学制造产品。这些可编程的芯片将数字信息转换为光域,然后再转换回来,以进行一种非常安全但要求很高的数据加密,例如全同态加密(FHE)。
FHE允许敏感数据在被处理的同时保持加密,因此即使是处理硬件也无法访问它们。它涉及在加密过程中添加随机噪声,但依靠乘以高阶多项式来控制噪声。与未加密处理相比,这些复杂的计算需要增加大约百万倍的操作,这使得它们在标准数字计算机上无法维持。
但是,如果首先对数据进行傅里叶变换,然后再通过第二次变换进行重新转换,就可以大大简化这些计算。
Optalysys公司通过将数据编码在微小的激光束中,通过蚀刻在一块硅片上的衍射光栅,对输入数据流进行傅里叶变换。该公司的应用主管Joseph Wilson说,这种安排远比散装光学技术更适合将电信号转换成光学信号,反之亦然。“光学为你提供了两条路,要么你走得非常大,要么非常快。我们现在已经选择了后者。”
公司董事Nick New表示,该公司成立于2013年,位于利兹市,迄今已筹集了约1000万英镑(约1150万美元),目前正在实验室中测试其第一批芯片。在未来18个月内整合必要的电子器件后,他预测这些设备应该比最好的纯电子芯片快500倍左右。他补充说,如果一切顺利,该产品应该在2025年出现在市场上。
Enable芯片,被其制造商Optalysys描述为“FHE的完整解决方案”。
虽然Optalysys公司为利用光的自然计算这一公认的方法带来了现代的变化,但其他公司也试图制造更通用的光子处理器。在20世纪70年代和80年代,科学家们开始研究相当于晶体管的光学产品。但很快就发现,鉴于光子缺乏相互作用,因此无法进行(非线性)切换,这将是一个多么高的要求。因此,近年来,许多成立光子计算公司的研究人员转而关注一种具体但需求量很大的计算,而且是数字电子学难以完成的计算:矩阵乘法,它是人工神经网络的基础。
神经网络能够识别数据中的某些模式,这要归功于其众多人工神经元之间的加权联系,这些神经元通常是分层排列的。任何一个神经元的输出都是由上一层神经元的加权输入之和以及一个非线性激活函数决定的:这种安排在整个网络中重复进行,并使最后一层能够指示输入端是否存在一个特定的模式。
加权输入的总和在数学上表示为一个向量(输入值)和一个矩阵(权重)之间的乘法。对于数字处理器来说,这相当于一长串的乘法和加法,涉及到在存储器和处理器之间以电子的形式沿线来回传送数据。这需要时间并产生热量:专门的人工智能芯片,如谷歌的张量处理单元TPU,通过减少在通用CPU中发生的许多操作,避免从内存中重复提取数据,既节省了时间、也节省了能源。然而,最终所有数字电子芯片都受到其冯-诺依曼架构的限制。
瑞士苏黎世IBM公司的电子工程师Abu Sebastian通过将这种芯片与一个特别有效的神经网络:人脑中的神经网络进行比较,强调了这种限制。他指出,大脑每次突触操作平均只消耗约20瓦和估计1飞焦耳(10-15焦耳)。相比之下,他们连续的数据移动意味着基于冯-诺依曼架构的数字芯片每次操作可能会消耗数百飞焦耳,“即使处理器几乎不消耗能量”。
光学处理器可以削减矩阵乘法所需的能量,因为光子的非交互作用使它们很适合这种线性代数。然而,直到最近,它们还过于笨重,无法与电子器件竞争。
现在,正如Bhaskaran所指出的,它们也可以作为芯片制造,使用类似于制造传统集成电路的CMOS工艺——世界各地的一些代工厂都提供这种制造。他说:“整个制造场景已经改变了。这意味着,如果有市场,你就可以制造它。”
最早研究用于光学计算的集成光子学的小组之一是美国麻省理工学院(MIT)的Dirk Englund和Marin Soljačić小组。该小组探索了许多不同的方案,包括由当时的博士后Ryan Hamerly提出的方案,该方案使用一个光学同调探测器将激光脉冲的强度相乘,并使用一个电容器来积累连续乘法的电编码结果。这可以实现低能量的矩阵乘法,但要想实用,它可能需要大量的透镜以及基于芯片的组件。
吸引了最多关注的建议涉及所谓的马赫-曾德尔干涉仪(Mach-Zehnder interferometers,MZI)。这些设备由两个50:50的分光器和一对纳入波导的移相器组成,可以旋转编码为激光脉冲的输入矢量,如果其两个输入和输出通道中的一半被阻断,还可以缩放这些矢量。由于任何矩阵都可以被铸成两个旋转和一个重新缩放的组合,一个合适的MZI网络可以对进入的光脉冲进行矩阵乘法。
该方案被用来实现一个可以识别不同元音的两层神经网络,正如2017年《自然·光子学》论文中所报道的那样。这项工作后来导致了两家独立公司的分拆,两家公司都在波士顿设有办事处,名为Lightmatter和Lightelligence。但是,尽管两家公司都继续开发了以某种方式利用MZI的芯片,但都没有坚持最初的设计。
“世界上领先的光子计算公司”:Lightelligence公司
Lightelligence公司成立于2017年,四年后发布了一款名为PACE的芯片,包含约1万个光子设备和一个提供控制和记忆的微电子芯片。联合创始人兼首席技术官Huaiyu Meng解释说,该公司不得不拆散原来的单一MZI网络,因为要在一个相干的网络中保持非常微妙的相位状态太难了。他说,如果任何一个干涉仪发生故障,将“很难隔离影响”。
Lightelligence公司联合创始人兼首席执行官沈亦晨(左)和Lightmatter公司联合创始人兼首席执行官Nicholas Harris(右)。
Huaiyu Meng表示,尽管有这个限制,PACE能够解决一个指数级扩展的“最大割问题”,比最先进的GPU快100多倍:该公司计划在2022年底左右推出一个更强大的芯片,用于图像识别和物体检测。事实上,在获得了约2亿美元的投资并雇用了约200名员工后,该公司的创始人兼首席执行官沈亦晨最近宣称Lightelligence是“世界上领先的光子计算公司”。
Lightmatter的创始人兼首席执行官Nicholas Harris对此不敢苟同。他对Lightelligence声称已经解决了最大割问题持怀疑态度,他认为,如果做到了可扩展,“有点像声称我们能做到冷核聚变。”他不愿意透露他自己公司的新通用人工智能芯片的任何技术细节,该芯片被称为Envise-beta,只是说设备中的几个MZI实际上并不做任何处理。但他确实说,该芯片包含数百万个光学元件。
据Harris说,Lightmatter成立于2017年,迄今已雇用了至少100名员工:包括领导谷歌开发张量处理单元的Richard Ho。Harris补充说,该公司还从顶级风险投资公司筹集了超过1.15亿美元的资金,“更多的资金还在路上”。他声称,该公司的技术是唯一开始与领先的数字芯片的能力相媲美的光子技术,“我不知道还有谁接近于做到这一点。”
Lightelligence于2021推出的光电芯片PACE。
虽然支撑这两家麻省理工学院初创公司的最初工作依赖于光的相位,但其他地方的公司正在将其光子计算技术建立在其他波动特性的基础上。例如,从牛津大学分拆的Salience就是为了建立利用光强度变化的神经网络而成立的。为此,它使用了相变材料(PCM)——在这种情况下,相变不是指光,而是指材料的财产,当材料处于非晶态时,其透射率比晶态时更高。
从大脑的工作原理中汲取灵感,Bhaskaran和牛津大学的同事们,以及德国明斯特大学的Wolfram Pernice和同事们,最初将PCM与波分多路复用相结合,创建了一组激发神经元,他们在2019年报告称,这些神经元经过训练,能够识别字母表中的字母。但这并不是Bhaskaran将在Salience开发的方案,他在2017年从IBM的Sebastian那里听到了原始电子技术后,于次年建立了该方案,以将存储计算的光子版本商业化。
Sebastian解释说,他的研究的关键思想是通过在存储器进行计算来避免数据移动。这种存储器在电子学中是基于电荷或电阻的,它可以表示神经网络中的权重,这样,当数据流过存储器时,存储器保持固定,从而实现矩阵乘法。这样做的好处是节省了处理时间和精力,与数字计算相比,精度降低了。
Bhaskaran、Sebastian、Pernice及其同事在2018年首次使用单个集成光学器件演示了光子存储器计算。两年后,他们使用定向耦合器将片上光学频率梳的多路复用输出转移到单个PCM块(神经网络的权重),同时进行了64次矩阵乘法。考虑到光子调制的潜在速度,研究人员表示,这种“张量核”可能每秒执行2万亿次操作。
根据Bhaskaran的说法,这项工作可能会在2023年底制造出第一个原型张量核,然后在几年后制造出商业装置。但他表示,他们的小型设备能否在更大范围内保持“非凡的性能”还有待观察。考虑到这两种技术的不同规模,光的波长为数百纳米,而微芯片中的晶体管往往只有几十纳米长,他们仍然需要证明他们的处理器是如何与设置其权重的电子设备接口的。“这是我们正在解决的一个巨大的研究问题。”
几乎所有光子计算机的开发者都面临着将光子学与电子学联系起来的棘手问题。以色列的Cognifiber公司是一家采用新颖方式解决这一问题的公司。该方案完全放弃了硅光子学,转而采用多芯光纤形式的玻璃。这个想法是利用核心之间的干扰来模拟多层神经网络中神经元和突触之间的相互作用。
多芯光纤中纤芯之间的耦合会导致串扰,在电信应用中通常需要避免。但是,以色列巴伊兰大学的Zeev Zalevsky和Cognifiber首席执行官Eyal Cohen利用这种耦合在代表神经元、突触或两者之间联系的核心之间传输1550nm的信号,从而使这种耦合发挥了优势。
他们的方案设想将多达数十万个核心排列成特定的横截面几何形状。代表输入神经元的核心形成一个最靠近光纤周边的环,而内层神经元及其突触则逐渐靠近光纤中心。一些核心是掺铒的,携带980nm的泵浦光,允许控制输入的加权求和和神经元的激活函数(通过铒增益函数的非线性区域)。
正如Zalevsky所解释的,该方案不依赖相干光,因此不受偏振或温度等参数微小波动的影响。他说,另一个巨大的好处是,在开发光纤通信方面已经花费了大量的时间和资金,从而实现了光子数据和电子数据之间的平滑和快速接口。但他也指出,他们的系统面临一个重大挑战:如何将大量的核心与各自的光纤连接起来,从外部引入光线。
Cognifier成立于2018年,目前仍处于相对早期阶段。研究人员原则上展示了如何连接几十个神经元,并展示了单个神经元的全部工作原理。Zalevsky估计,用上百个处理神经元构建一个工作原型需要两三年的时间。但他乐观地认为,大量的工程和财务努力将为公司带来商业成功。
考虑到将光子处理器与电子世界联系起来的困难,一些公司决定最好不要尝试。这是总部位于加利福尼亚的Ayar实验室采取的方法,该实验室成立于2015年,旨在将光学互连商业化。该公司的联合创始人兼首席技术官Mark Wade表示,他和他的同事得出结论,处理器之间的数据传输速度限制、能耗大,很可能会成为比处理器本身性能更大的瓶颈。
Wade表示,凭借约1.95亿美元的资金和约100名员工,Ayar实验室目前正在准备两种用于大规模生产的光学I/O产品:一种以每秒1TB的速度将电信号转换为光脉冲的光学“小芯片”,以及一种光纤连接的激光器来提供光。这个想法是将一块给定的板上、同一机架上的板之间或机架之间的组件连接在数十厘米或更长的距离上,而不是增强单片芯片内的通信。
Ayar Labs首席技术官兼联合创始人Mark Wade(左)和一名工程师在实验室检查该公司的SuperNova多波长激光源。
预计将在2026年底实现全面生产,Wade相信Ayar实验室在不追求光子处理方面做出了正确的选择。他还补充道,他的公司并不是唯一一家,他指出,为开发光子计算机而设立的其他公司正开始转向光学I/O。
事实上,另一家名为Luminous Computing的加州机构已经改变了策略。该公司拒绝向OPN提供任何细节,但其在线营销文献表明,大约三年前,它将重点从光子计算转向了芯片间通信。它现在的目标是通过使用光子学将电子芯片连接起来,打造“世界上最强大、可扩展的人工智能超级计算机”,它声称这是一种全新的系统架构。该公司表示,迄今为止已筹集了约1.25亿美元,组建了一支100人的团队,目前正在寻找另外100名员工。
同样,目前在美国加利福尼亚州森尼维尔NTT研究所工作的Hamerly认为,“有充分的理由怀疑”光计算,即使它可能带来比光互连更大的好处。他认为,虽然与量子隧穿相关的电子计算的规模存在基本限制,但对光学组件的最小尺寸(如所用光的波长和环形谐振器或波导的弯曲半径)的限制仍然更为严格。他说:“光学元件的密度永远不会和电子元件的密度一样。”
事实上,Lightmatter和Lightlligence除了其处理器之外,还发布了光学互连产品。Harris表示,尽管他和他的同事创立了Lightmatter来开发光子处理器,但他们意识到,如果不能足够快地将数据传输到芯片,他们“会碰壁”;因此发展了它们的互连。但他坚持认为,光子计算非常值得追求,并将其描述为“一个比通信更困难但影响更大的问题”。
Bhaskaran也很自信,但很谨慎。他预计,光子学和模拟电子技术将在同一芯片上一起使用,以最大化吞吐量,同时实现规模化。但他表示,目前尚不清楚是否存在这样的应用,这些芯片将为其提供优于数字电子产品的明确优势,因此,它们是否真的会在商业上取得成功。
https://www.optica-opn.org/home/articles/volume_34/january_2023/features/photonic_computing_for_sale/?src=hptopstories