光计算技术发展与应用研究
光计算技术是基于光信息传输的新型计算体系,具有高速率、低能耗、并行处理等优势。其核心技术是利用光子的波特性和空间、时间、波长、偏振等多种属性构建计算单元,实现深度学习、人工智能等任务。光计算技术突破主要集中在基于光学神经网络和量子光学的两大类,前者通过空间光结构和片上集成光计算器件实现高效的线性计算,后者利用光量子态模拟复杂系统,如最大割问题和高斯玻色采样。光计算技术在AI、云计算、自动驾驶等领域展现出广阔应用潜力,但面临底层支撑技术不完善、光器件集成度不足、算法扩展受限等挑战。
目录
0 引言
1 光计算技术可解决的主要问题
2 光计算技术突破重点
2.1 基于光学神经网络的光计算技术
2.2 基于量子光学的光计算技术
3 光计算技术产业化应用情况
4 光计算技术产业发展面临的主要问题和挑战
5 结束语
摘要
光计算技术是以光为信息传输载体,基于光学单元架构,具备特定计算功能的新型计算体系。相较于传统电子计算技术,光计算技术在运算速度、能耗效率以及并行处理能力等方面具有显著优势,但同时也面临着器件集成化、小型化和轻量化等技术瓶颈。近年来,硅基光电子集成技术与量子信息技术等领域的快速发展,为光计算技术的应用前景奠定了坚实基础,使其有望成为应对人工智能快速发展的高算力与低能耗需求的技术支撑路径,成为当前学术界和产业界关注的热点议题。本研究将系统阐述光计算技术的主要技术路线、发展动态及未来趋势,深入探讨其产业发展历程、主要应用场景及其面临的挑战,并展望其未来可能的发展方向。
关键词: 异构计算; 光电子; 加速器
0 引言
近年来,伴随着AlphaGo、ChatGPT等人工智能革命性成果的出现,深度神经网络、人工智能大模型等技术成为全球关注的热点,各行业对提升智能计算能力的技术需求日益增长。传统电子计算体系存在的"冯·诺依曼瓶颈"、摩尔定律放缓以及"功耗墙"等问题愈发显著。人工智能公司OpenAI的统计数据显示,在2012—2020年期间,深度人工神经网络的浮点计算量以指数速度快速增长,不仅超过了集成电路摩尔定律的增长速率,还伴随着严重的能耗问题,这严重制约了人工智能的发展和应用。在此背景下,探索和开辟基于新原理、新体系、新平台的新型计算技术路径已成为当务之急,而光计算技术作为该领域的重点突破方向,受到了国内外业界的广泛关注。
电子计算技术体系采用电子作为信息传输载体,基于二进制的数字逻辑电路构建。相比之下,光计算技术的独特之处在于以光波作为信息载体,基于光的波动特性以及光与物质相互作用的基本原理,通过特定设计实现电子计算需要完成一系列复杂逻辑操作的运算过程。理论上,光计算技术展现出显著优势,包括运算速度极快、延迟极低、运算具有极强的并行能力、传输能耗极低、抗干扰能力强以及编码维度丰富(如光波波长、模式、偏振、相位等)等突出特点。近年来,计算机视觉、模式识别、生物医药研发等多个领域对新型计算技术的需求日益增长,光计算技术正以加速发展的态势快速发展。一方面,学术界对光计算技术的关注度持续提升,部分技术路线发展迅速;另一方面,光计算技术逐步从实验室走向产业化应用,这将为智能数据中心、新材料研发和新药物制造等实际应用场景带来显著性能提升。
1 光计算技术可解决的主要问题
光电子计算技术是基于光电子学、微电子学、量子物理、计算机系统和算法科学等多学科的深度交叉融合,形成了新型的计算技术。其中,主要以基于光学神经网络的光计算技术和基于量子光学的光计算技术为主流。在光学神经网络领域[2-3],主要采用空间光学或集成光学技术,通过有机组合多种光学元件,如光学透镜、干涉仪、光栅和光波导等,能够实现矩阵乘加、卷积、微积分运算以及傅里叶变换等基本数学计算。与基于电子晶体管的二进制数字计算不同,光计算技术是一种模拟计算方式。通过构建人工神经网络算法架构中的线性矩阵计算、非线性函数激活等基本算子,可以实现光脉冲神经网络、光学循环神经网络、光学多层感知机以及光学卷积神经网络等技术。目前,该技术路线已进入初步商用阶段,主要以突破特定问题为目标。在光量子计算技术方面[4-5],基于光子伊辛机技术,光量子计算系统能够高效解决组合优化问题,例如电路设计和路径优化等场景中的最优解搜索。此外,研究者已通过模拟量子计算实验,成功实现了玻色采样和随机路线采样,证明了量子优越性的成果,显著超越了经典电子计算机系统的计算效率。然而,该技术路线目前仍处于早期发展阶段,主要以解决特定问题为主,距离实现通用性计算能力仍有较大差距。
值得指出的是,基于当前的科学技术发展水平,光信息存储技术在性能上难以与闪存技术(Nand-Flash Memory)和动态随机存取内存(DRAM)等电子存储技术相媲美。因此,无法完全通过光学途径独立实现现代计算机所需的数据运算和数据存储的完整过程。目前,光计算技术的实现需要具备高精度、高速度的并行电子电路控制以及配套的模数转换电路。只有当这些条件得到满足时,才能充分发挥光计算技术的全部潜力。因此,当前具备明确应用前景的光计算技术解决方案,主要采用光电混合计算方案。其中,基于光学神经网络的光计算技术实现,需要在电子芯片上存放运算中间值,并执行池化、归一化和激活等非线性运算;而基于量子光学的光计算技术实现,则需要通过电子芯片的控制系统对光量子态的制备、检测等过程进行精确调节。
2 光计算技术突破重点
2.1 基于光学神经网络的光计算技术
当前,在经典电子计算机技术支撑下的人工智能神经网络计算体系中,线性计算任务(主要涉及加法运算、矩阵乘法和卷积计算等)占据了大量时间和能源消耗。近年来,诸多研究者致力于推动光学神经网络的光计算技术发展,研究成果表明,通过光学方法执行上述线性计算任务,相较于电子计算技术在计算效率和能耗方面具有显著优势。这种优势的实现主要得益于光信息传输特征,即光信号在时延和带宽维度上的乘积较高、不同波长光信号相互独立且互不干扰,同时复振幅描述的光波场在传播过程中等效于完成计算(基于傅里叶光学原理)。
当前,业界致力于推进基于光学神经网络的光计算技术的发展,其主要思路是充分发挥光计算技术和经典电子计算技术的协同优势,构建光电混合计算系统。在神经网络计算任务的处理上,通过拆解任务流程,让光芯片和电芯片协同合作完成计算工作,其中光芯片主要负责进行大量的线性计算,而电子图像处理器(如GPU或FPGA)则承担非线性计算及存储任务。目前,研究者已经展示了光电混合计算系统在加速处理人工智能图像处理、语音处理、图形渲染等任务方面具有显著效果。近年来,业界在光学神经网络研究方面取得了两大重点突破方向。
基于傅里叶光学原理的空间光结构神经网络展现出卓越的智能识别能力。光学神经网络研究起源于20世纪末,该研究主要依赖于独立的光学器件,如空间光调制器、衍射板和光学透镜等分立式组件,通过搭建光神经网络框架。这种基于分立式光学器件的构建方式具有显著优势,即信号传输损耗较小,且可灵活运用现有的成熟光学器件。1985年,美国宾夕法尼亚大学与美国加州理工学院联合推动了基于神经网络Hopfield模型的全连接光学神经网络研究,首次实现了具有反馈机制的光学神经网络系统,标志着光神经网络研究从理论层面走向了实验验证阶段。进入20世纪90年代后,随着电子芯片技术的成熟,计算能力需求逐渐被满足,但光计算技术研究的热度有所下降。2010年至今,随着人工智能技术的蓬勃发展,基于空间光结构的光学神经网络研究进入了一个高度活跃的发展阶段。2018年,美国加利福尼亚大学团队通过3D打印技术实现了全光衍射深度神经网络,并在手写数字识别任务中实现了超过91.0%的准确率。2020年,美国乔治华盛顿大学的研究人员基于4F光学系统空间滤波技术开发了幅度可调卷积神经网络,其在手写数字识别任务中的准确率达到了98.0%以上。2022年,美国康奈尔大学的研究团队创新性地结合了有机发光二极管阵列和空间光调制器,实现了并行计算能力达到50万次线性乘法运算,并将手写识别系统的准确率提升至99.0%以上。总体而言,该技术路线已展现出显著的计算性能优势,但器件的微型化仍是制约其大规模应用推广的关键性技术瓶颈。
二是通过优化基于相干原理的片上集成光计算器件结构,显著提升了算法性能和计算复杂度。当前,空间光结构技术中器件集成度较低,抗干扰能力不足,难以构建高复杂度和大规模的计算系统。随着硅基光电子集成技术的持续升级,为实现结构紧凑、稳定性强且扩展性高的片上相干光计算系统奠定了基础。2017年,麻省理工学院成功研发了基于56个可编程Mach-Zehnder Interferometer(MZI)拓扑级联架构的片上集成光学神经网络,该系统实现了矩阵-向量乘法的线性运算,并成功演示了基于光电混合计算架构的两层全连接神经网络在4个元音信号识别任务中的应用,元音信号识别准确率达76.7%。这一成果具有里程碑意义,推动了全球光计算技术研究的热潮。随后,麻省理工学院、加利福尼亚大学和南洋理工大学等机构相继提出了基于微环谐振腔结构的光学神经网络实现方案,相较于基于MZI的方案,其器件体积缩小,可实现算法种类有所扩展。总体而言,片上光学神经网络已成为当前光计算技术实现商业化应用的主要突破方向,但受限于片上器件性能、传输损耗等问题,与空间光结构技术相比仍存在差距,计算识别能力仍有待进一步提升。
2.2 基于量子光学的光计算技术
经典计算系统主要基于二进制运算,其核心是通过0和1两个状态来实现信息处理。相比之下,量子计算技术的主要优势在于利用量子态叠加原理,使得量子系统能够同时且相干地处于多个状态。基于量子叠加原理,量子系统可以同时处于状态0和状态1的叠加态,对于包含_N_个量子比特的系统,可以形成2^N个相干叠加态。这种特性赋予了量子计算技术强大的并行计算能力,理论上计算速度远超经典计算系统。目前,量子计算技术的发展已形成多条并行路线,主要依据量子比特的物理载体进行分类,包括超导、离子阱、光子、冷原子、硅基材料、拓扑子等多种技术路线。其中,光子技术因其不易退相干、传导速度快、易于操控且可在常温下运行等显著优势,成为量子比特编码的理想载体。基于光子的偏振态、轨道角动量等多维度编码方式,近年来已得到广泛认可,而光量子计算技术路线也逐渐成为研究的主流方向。
当前,光量子计算技术领域主要分为两个产业化应用前景较为广阔的细分技术路线。第一类是基于量子行走、高斯玻色采样的集成光量子技术路线,第二类是基于光纤中的激光脉冲作为量子比特,用于解决最大割问题的相干伊辛机路线。光量子计算技术通过构建系统哈密顿量来模拟可控物理系统,相较于需要进行复杂量子门操作及额外量子纠错系统的超导、离子阱等路线而言,其技术难度较低,是当前含噪声中型量子(Noisy Intermediate Scale Quantum, NISQ)发展阶段中推动量子计算解决专用计算问题的重要发展路径。当前光量子计算技术领域存在四个关键突破方向。
主要致力于筛选适合集成光量子计算技术的材料平台。2014年,美国麻省理工学院在硅基材料平台上成功实现了基于四波混频效应生成关联光子对,并在信号光与闲频光的分路路由方面取得了良好效果。该研究为片上光量子态的制备展示了良好前景,硅基材料具有良好的扩展性和兼容性优势,但存在信号调制速率不足的问题。2022年,美国加利福尼亚州理工大学在铌酸锂材料平台上通过借助纳米波导结构和色散工程手段,显著提升了光参量放大性能;同时,上海交通大学等研究机构通过铌酸锂平台完成了量子光学实验验证,验证了铌酸锂材料在空间占用小、损耗低、折射率调制效率高等方面具有显著优势,为片上光量子态的生成与操控提供了高效途径。
二是研发和优化用于光量子计算的单光子光源和探测器系统。在单光子光源方面,中国科学技术大学于2013年成功开发了基于量子点脉冲共振激发技术的单光子光源系统,随后经过近十年的持续努力,该大学在光源性能方面取得了显著进展,逐步实现了高全同性参量下转换光子对、双光子纠缠源等关键突破,为光量子计算提供了较为可靠的光源解决方案。在探测器技术方面,美国国家标准与技术研究院和荷兰代尔夫特理工大学等机构已开发了基于超导纳米线技术的单光子探测器系统,其探测效率和重复频率等性能指标持续提升,为光量子计算所需的高性能光探测器系统提供了优良的技术支撑。
第三点是优化特定量子算法的运行效能。近年来,光子纠缠体数量持续增长。2018年,中国科学技术大学成功实现了对18位光子的精确操控,这一成果在量子计算技术发展史上首次实现了单个量子比特操控的突破[10]。2020年底,中国科学技术大学等单位联合研发的"九章"原型机,基于集成化多模干涉仪和外置量子光源技术,实现了对76位光子的量子计算能力,该系统在高斯玻色取样任务中展现出显著的量子计算优势,远超同类型经典计算机[11]。2021年,"九章二号"原型机成功升级至113位光子的量子计算规模[12]。
四是提高相干伊辛机效应的可实现性。2011年,美国斯坦福大学最初提出通过垂直腔面发射激光器技术实现伊辛机,该方法通过从多个激光器同步注入的光激发主激光器振荡,实现借助注入光的能量自主振荡,主激光器振荡出的光的偏振态对应伊辛模型的自旋±1并进行计算,但受限于激光器数量的限制,难以实现大规模量子比特制备。2014年,该大学采用光学延迟线与非线性晶体的结合方式改进了相干伊辛机,突破了激光器数量限制,但该方法要求光学延迟线数量较多且精确度要求高,且计算系统的精确控制存在困难。2015年,斯坦福大学与东京大学合作开发了测量反馈型相干伊辛机,通过光纤环路与现场可编程门阵列高速光电探测处理电路,成功克服了光学延迟线导致计算系统难以精确控制的问题。2016年,研究团队基于相干伊辛机原理,成功求解了最大割问题。
3 光计算技术产业化应用情况
当前,光计算技术正从实验室阶段逐步向产品落地转型。行业内主要由高校研究成果孵化而成的初创企业。谷歌、Meta、微软、百度等科技巨头也主要通过投资初创企业来布局光计算技术。此外,华为、日本电信电话公司(NTT)等大型科技企业也组建了研发团队,致力于光计算技术的开发。在应用领域,面向人工智能应用的加速器是主要产品。预计未来三年,光计算技术将在AI云端计算领域得到广泛应用。从长期来看,光计算技术凭借成熟的技术和丰富的产业生态,有望渗透至元宇宙、自动驾驶等新兴应用场景。
基于片上光学神经网络技术与现有电子计算体系具有较高的兼容性,并且其产业化落地进程较为迅速。2021年,美国Lightmatter公司推出了一款基于多阶马赫曾德尔干涉结构的光芯片,并与电子计算芯片协同工作,形成了光电混合计算系统。在执行BERT等特定算法时,该系统在相同功耗下,计算速度是英伟达A100 GPU芯片的5倍以上[13]。同年,我国上海曦智科技有限公司也推出了光计算技术产品,其核心为64×64的光子矩阵乘法器,基于硅光工艺实现单片集成超过10000个光子器件[14],在运行特定神经网络算法时,其速度可达当前高端GPU的数百倍。2020年,我国光子算数科技有限责任公司推出了一款专为机器视觉和图形渲染等任务设计的定制型光电混合计算加速卡,并已实现商业化应用。
基于傅里叶光学原理开发的神经网络光计算系统主要用于光学图像信号处理,已具备商用化能力。于2019年,英国Optalysys公司推出商用分立光学处理系统FT:X2000,该系统基于空间光传输等效于卷积操作的原理,并通过集成在芯片上的微透镜实现器件小型化,适用于处理高分辨率图像和视频。于2020年,法国LightOn公司推出基于离轴光全息技术的空间光学计算系统,该系统主要应用于机器学习、卫星图像分析和自然语言处理等领域,与电子显卡协同工作,执行图像处理类AI算法时,在相同处理能力下,其计算能力较单纯使用电子显卡方案高出一个数量级。2021年,华为宣布光计算技术被列为企业关键技术及产业发展研究创新2.0路线的重要方向,并已公布相关专利。
该系统主要以量子光学理论为基础实现特定算法的优化求解,目前仍处于方案试验阶段。基于相干伊辛机原理的NTT主要用于求解组合优化问题,2021年实现了光纤封闭系统中压缩量子噪声超过75%的连续波压缩光(Continuous-Wave Squeezed Light)[15],这为基于相干伊辛机原理的光量子计算机奠定了基础。2021年,图灵量子公司发布了集成化光量子计算机TuringQ Gen1,该系统集成了量子光源、光量子信息处理芯片、探测系统、专用光量子计算软件、光量子芯片EDA软件云接入、光量子计算操作系统及量子云平台,产品面向量子科学研究领域。2023年,北京玻色量子科技有限公司推出了新型相干光量子计算机,该设备可在GHz级调控频率下同时完成量子比特的控制、读取和快速反馈操作,能够操控多达100个计算量子比特。
光量子计算技术在药物开发、材料合成等领域正加速发展。当前传统超级计算机难以模拟化学分子的关键量子行为和反应过程,而光量子计算技术基于量子原理可以对化学反应进行快速模拟,这将显著提升研发效率。2022年,加拿大Xanadu公司宣布,其研发的光量子计算机北极光(Borealis)成功实现了高斯玻色采样实验,并开发了一种有望在此量子计算机上模拟锂离子电池结构的方法。2022年,美国PsiQ公司宣布,在容错量子计算的编译技术方面取得了重大突破,大幅提升了量子计算机解决实际问题的能力。该公司还宣布与奔驰公司合作,研究如何在量子计算机上模拟锂离子电池中的电解质分子化学反应,这一合作成果有望为汽车制造商在下一代电池设计中提供突破性的解决方案。
4 光计算技术产业发展面临的主要问题和挑战
目前,光计算技术的产业化进程逐步推进中,但整体上,其尚未完全达到大规模商用的水平。其实际应用领域尚未被证明具有明显优于传统电子处理器的性能。主要存在三个方面的制约因素。
在当前阶段,光计算技术相关底层支撑技术仍需进一步完善。在人工智能神经网络训练过程中,非线性激活函数是不可或缺的。然而,在光学技术领域,非线性现象的实现往往面临诸多技术挑战。在现有光计算解决方案中,电子器件如FPGA被广泛用于非线性计算处理,这种处理方式不仅增加了系统的复杂性,也显著提升了能耗水平。未来研究应着重关注响应时间短、功耗低且具有高数据并行能力的光学非线性特性,以实现全光化的深度神经网络。在自动驾驶等自然场景中,大部分光信号呈现非相干特征,这种限制一定程度上制约了光计算技术的适用范围。现有的光计算技术解决方案通常依赖于高相干性的光源,这种限制在非相干光场景下显得尤为明显。未来研究仍应着重探索非相干光场景下光计算技术的实现方案。
其二,光器件的集成化和调制能力仍有待进一步提升。基于硅基、氮化硅和磷化铟聚合物的工艺路线,目前仍无法充分释放光计算芯片的性能潜力。光信号的调控主要依赖于热光效应和电光效应两种主要机制。其中,采用电光调制方式虽然有效,但会带来较大的插入损耗,这对光器件的性能优化构成一定挑战;而热光调制技术则面临散热问题,尤其是在光计算系统的集成度提升和器件间距缩小的情况下,散热已成为系统设计中的关键难题。展望未来,大规模光神经网络的实现将面临诸多技术难题,亟需突破光器件间的热串扰、电器件间的互操作性以及光电器件间的协同效率等问题。
三是光计算技术的算法体系和架构还需要进一步完善。当前,光计算芯片架构种类较为单一,可实现的智能算法数量有限。由于智能算法仍处于高速发展阶段,光计算技术芯片的算法迭代升级速度与电子芯片算法相比仍显不足。未来,应重点建设适用于光计算技术算法开发的通用编译器、算法框架和工具链,并使其能够与现有的电子AI芯片生态系统相兼容。
5 结束语
综合研判当前光计算技术产业的发展水平,基于光电混合计算架构的光学神经网络技术很有可能率先实现大规模的应用落地,成为业界应对人工智能时代算力与能耗急剧增长挑战的重要技术路径。展望未来,光计算技术的发展重点将围绕三大关键方向展开。第一,通过硅光技术进一步提升光器件的集成度,推动光计算技术的核心器件朝着集成化、小型化和轻量化方向持续发展。第二,将进一步完善光计算硬件支持的算法体系,强化基于光域技术实现片上训练的能力,同时完善相关软件开发工具的支撑体系。第三,持续升级光电融合的异构计算技术方案,深入探索光计算单元与中央处理器(CPU)、GPU、FPGA等电子芯片之间的协同异构计算模式,重点面向模式识别、多模态等人工智能关键应用场景,持续研发具有突出性能优势的经典产品,充分展现光计算技术在执行重要算法、解决关键问题方面的显著优势。
