通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索
查看: 3012|回复: 9
打印

光芯片,火力全开 [复制链接]

军衔等级:

  少将

注册:2016-11-17275
跳转到指定楼层
1#
发表于 2024-3-11 14:20:39 |只看该作者 |倒序浏览
本文来自微信公众号“半导体行业观察”(ID:icbank),作者:L晨光

光芯片成果不断,落地缓慢?

“20倍、50倍、100倍、1000倍、3000倍、10000倍...”,光芯片在计算方面超越硅芯片的速度与日俱增。

近几十年以来,微电子技术与电子芯片产业遵循着摩尔定律不断发展,随着传统制程工艺逼近极限,电子芯片在进一步提升计算速度和降低功耗方面的技术突破,面临难以解决的瓶颈。

在后摩尔时代,光芯片这一颠覆性技术被视为破局的关键。

尤其是当前对算力的需求来看,随着AI的爆发,在未来10年中,增长越来越缓慢的电子芯片,难以匹配增长越来越快的数据需求。

由此,光芯片进入了人们的视野。

然而,从行业现状来看,光芯片仿佛始终是“雷声大,雨点小”,并未在市面上见到太多应用案例。那么,在强大优势背后,光计算芯片目前发展现状究竟如何?取得了哪些突破和进展,以及还面临哪些棘手的挑战?

光芯片,难觅用武之地?
实际上,光芯片很早就有,已经很成熟,比如2000年前后的海底光缆,光通讯两端的收发模块都是光子芯片,甚至在上课或开会时用的激光笔,里面也有激光器芯片,也是一种光子芯片。

但这些是不可编程的光学线性计算单元,所以无法运用于计算领域。要想通过光来提升算力,具有实用价值的计算单元就必须具备可编程性。

interlace,1

可编程光学系统的研究突破(图源:nature photonics)


而针对光计算的研究也很早就开始了,始于20世纪60年代,但受到当时应用范围有限以及电子计算技术快速发展的影响,光计算处理器未能成功迈向商用。

直到最近10年,这种光计算芯片才逐渐取得突破性进展。

尤其是在当前时代,AI应用正推动对算力的需求,光芯片作为重要的潜在颠覆性技术路径,光计算芯片近年来又重新受到广泛关注。

光芯片的核心是用波导来代替电芯片的铜导线,来做芯片和板卡上的信号传输,其实就是换了一种介质。当光在波导里面传输的时候,波导和波导之间出现光信号干涉,用这个物理过程来模拟线性计算这一类的计算过程,即通过光在传播和相互作用之中的信息变化来进行计算。

与最先进的电子神经网络架构及数字电子系统相比,光子计算架构在速度、带宽和能效上优势突出。因此,光子计算能够有效突破传统电子器件的性能瓶颈,满足高速、低功耗通信和计算的需求。

interlace,1

片上光子计算处理示意图(图源:SEMI半导体研究院)


需要指出的是,光子计算的发展目标不是要取代传统计算机,而是要辅助已有计算技术在基础物理研究、非线性规划、机器学习加速和智能信号处理等应用场景更高效地实现低延迟、大带宽和低能耗。

硅光计算芯片通过在单个芯片上集成多种光子器件实现了更高的集成度,还能兼容现有半导体制造工艺,降低成本,解决后摩尔时代AI硬件的性能需求,突破冯·诺依曼架构的速度和功耗瓶颈。

综合来看,光芯片的优势可以总结为:速度快/低延迟、低能耗、擅长AI矩阵计算等。

  • 速度快/低延迟:光计算芯片最显著的优势是速度快、延迟低,在芯片尺寸的厘米尺度上,这个延迟时间是纳秒级,且这个延迟与矩阵的尺寸几乎无关,在尺寸较大的情况下,光子矩阵计算的延迟优势非常明显。
  • 低能耗:镜片折射本身是不需要能量的,是一个被动过程。在实际应用中,由于要对计算系统编程,其中光信号的产生和接收是需要耗能的。在光学器件和其控制电路被较好地优化前提下,基于相对传统制程的光子计算的能效比,可媲美甚至超越先进制程的数字芯片。
  • 擅长矩阵运算:光波的频率、波长、偏振态和相位等信息可以代表不同数据,且光路在交叉传输时互不干扰,比如两束手电筒的光束交叉时,会穿过对方光束形成“X”型,并不会互相干扰。这些特性使光子更擅长做矩阵计算,而AI大模型90%的计算任务都是矩阵计算。

因此,光计算芯片在AI时代迎来新的用武之地。

光芯片迎来突破性进展
光计算芯片可对神经网络训练和推理过程中的大规模矩阵运算、神经元非线性运算进行加速,还可通过对不同神经网络的拓扑结构进行硬件结构映射,来提高芯片的通用性和灵活性。

据了解,在人工神经网络计算加速方面,基于硅光平台的神经网络已取得多项进展。

早在2016年,麻省理工学院(MIT)的光子AI计算研究团队就打造了首个光学计算系统,2017年就以封面文章的形式发表在了顶级期刊Nature Photonics杂志上。

国际著名光学科学家、斯坦福大学终身正教授David Miller, 曾评价称这一系列的研究成果极大地推动了集成光学在未来取代传统电子计算芯片的发展。于是一篇论文在全球范围内启发了许多人投入到光子AI芯片的开发中,可以说是开创了光子AI计算领域发展的先河,受到业内瞩目。

2017年,曦智科技创始人沈亦晨(MIT团队成员之一)等人提出一种基于硅光平台的全光前馈神经网络架构,采用马赫-曾德干涉仪(MZI)进行神经元线性部分的计算,非线性激活函数则通过电域仿真的方法实现。

随着技术不断发展,基于硅光平台的神经网络也逐步走向商业化。例如,美国AI芯片公司Lightmatter推出通用光子AI加速器方案“Envise”;曦智科技在2019年4月对外宣布开发出了世界第一款光子芯片原型板卡,2021年推出了光子计算处理器“PACE”。

interlace,1

全球第一个示范出光子优势的计算系统PACE


据悉,“PACE”把最早4×4的乘法器,提升到了把上万个光器件集成在一块芯片上面,单颗光芯片上的器件集成度提高了3个数量级,系统时钟达1GHz,运行特定循环神经网络速度可达目前高端GPU的数百倍,这是光子计算领域一个长足的进步。

沈亦晨表示,“PACE是全球仅有的,第一个示范出光子优势的计算系统,也是已知全球集成度最高的光子芯片,能够展示光子计算在人工智能和深度学习以外的应用案例。如果和英伟达的GPU 3080跑同一个循环神经网络算法,PACE花的时间可以做到GPU的1%以内。”

在此之前,华为在2019年公开了一份名为“光计算芯片、系统及数据处理技术”的发明专利,接着在2021年华为全球分析师大会上表示,“到2030年,算力需求将增加100倍,如何打造超级算力将是一个巨大的挑战,未来模拟计算、光子计算面临巨大的应用场景,所以目前华为也在研究模拟计算与光子计算。”

近几年来,国内外企业、高校和研究机构也纷纷对此展开研究,取得了一系列成果和突破。

清华团队研发超高速光电计算芯片,算力超3000倍
去年10月,清华大学自动化系戴琼海院士、吴嘉敏助理教授与电子工程系方璐副教授、乔飞副研究员联合攻关,提出了一种“挣脱”摩尔定律的全新计算架构:光电模拟芯片(ACCEL),算力可达到目前高性能商用GPU芯片的3000余倍,能效提升四百万余倍,为超高性能芯片研发开辟全新路径。

相关成果以《面向高速视觉任务的纯模拟光电计算芯片》(All-analog photo-electronic chip for high-speed vision tasks)为题发表在 Nature 上。

interlace,1

光电计算芯片ACCEL的计算原理和芯片架构(来源:Nature)


据了解,在这枚光电计算芯片中,清华大学攻关团队创造性地提出了光电深度融合的计算框架。从最本质的物理原理出发,结合了基于电磁波空间传播的光计算,与基于基尔霍夫定律的纯模拟电子计算,“挣脱”传统芯片架构中数据转换速度、精度与功耗相互制约的物理瓶颈,在一枚芯片上突破大规模计算单元集成、高效非线性、高速光电接口三个国际难题。在保证高任务性能的同时,还实现超高的计算能效和计算速度。

实测表现下,ACCEL光电融合芯片的系统级算力较现有的高性能芯片架构提升了数千倍。

然而,这还只是这枚芯片诸多优势的其中之一。

在研发团队演示的智能视觉任务和交通场景计算中,光电融合芯片的系统级能效,实测达到了74.8 Peta-OPS/W,是现有高性能芯片的四百万余倍。形象来说,原本供现有芯片工作一小时的电量,可供它工作五百多年。

此外,在超低功耗下运行的ACCEL有助于大幅度改善发热问题,对于芯片的未来设计带来全方位突破,并为超高速物理观测提供算力基础。

更进一步,该芯片光学部分的加工最小线宽仅采用百纳米级,而电路部分仅采用180nm CMOS工艺,已取得比7nm制程的高性能芯片多个数量级的性能提升。同时所使用的材料简单易得,造价仅为后者的几十分之一。

凭借诸多优势,ACCEL未来有望在无人系统、工业检测和 AI 大模型等方面实现应用。目前团队仅研制出特定运算功能的光电融合原理样片,需进一步开展具备通用功能的智能视觉运算芯片研发,以进行大范围应用。

可以预见,随着我国芯片加工技术不断提升,更多新材料的加入,这种颠覆性架构未来的潜力将得到更多释放。

新型芯片开启光速AI计算之门
前不久,美国宾夕法尼亚大学工程师也开发了一种新型芯片,它使用光而不是电来执行训练AI所必需的复杂数学运算。

该芯片有可能从根本上加快计算机的处理速度,同时还可降低能源消耗。相关研究发表在《自然·光子学》上。

据介绍,该芯片首次将本杰明·富兰克林奖章获得者纳德·恩赫塔在纳米尺度上操纵材料的开创性研究与硅光子(SiPh)平台结合起来。前者涉及利用光进行数学计算,后者使用的是硅。

光波与物质的相互作用代表着开发计算机的一种可能途径,这种方法不受当今芯片局限性的限制。新型芯片的原理本质上与20世纪60年代计算革命初期芯片的原理相同。

研究人员描述了这种芯片的开发过程,其目标是开发一个执行向量矩阵乘法的平台。向量矩阵乘法是神经网络开发和功能中的核心数学运算,而神经网络是当今支持AI工具的计算机体系结构。

恩赫塔解释说,他们可将硅晶片做得更薄,比如150纳米,并且使用高度不均匀的硅晶片,在无需添加任何其他材料的情况下,这些高度的变化提供了一种控制光在芯片中传播的方法,因为高度的变化可导致光以特定的模式散射,从而允许芯片以光速进行数学计算。但这仅限于特定领域。

除了更快的速度和更少的能耗之外,新型芯片还具有隐私优势。由于许多计算可同时进行,因此无需在计算机的工作内存中存储敏感信息,从而使采用此类技术的未来计算机几乎无法被入侵。

逆向设计高集成度光计算芯片
逆向设计高集成度光子集成器件是近年来的前沿热点研究方向。

近日,美国宾夕法尼亚大学Vahid Nikkhah,Nader Engheta等学者提出了高效率仿真新方法,逆向设计了大矩阵维度的光学向量-矩阵乘法计算芯片。

传统的逆向设计过程中,光场仿真时间随器件面积指数级增长,这限制了器件的设计面积与矩阵计算维度。

为了解决这个问题,该团队提出一种压缩光场仿真时间的方法——p2DEIA,基于光传播的二维有效折射率近似,能够大幅缩减逆向设计仿真时间,突破传统方法在器件面积上的限制,从而设计大矩阵维度的光学向量-矩阵乘法芯片。

此外,由于p2DEIA方法对折射率的约束,该芯片具有无定形透镜型结构,可以避免谐振特征引起的窄带宽和制造误差敏感性,这在实现大规模集成的光计算芯片中发挥关键作用。

interlace,1

(a):p2DEIA方法示意图;(b):无定型透镜结构示意图


相关研究人员利用该方法,突破了仿真成本造成的逆向设计面积瓶颈,并成功设计出了大矩阵维度的光学向量-矩阵乘法器,可以完成1×N向量与N×N矩阵的乘法。

interlace,1

向量-矩阵乘法器设计示意图


研究人员利用该方法设计了3种向量-矩阵乘法器芯片,矩阵维度分别是2×2、3×3和10×10,并进行了相关器件测试。实验结果表明,该乘法器的实测性能与仿真性能非常接近,这为实现大规模集成的光计算芯片提供了新的方法和思路。

中科院成功研制出光计算芯片
据报道,中科院李明研究员和祝宁华院士团队也成功研制出光计算芯片。

目前而言,绝大多数传统芯片都是基于冯·诺依曼计算范式的电子芯片。但电子芯片存在的能耗较高、容易发热等一些问题始终无法解决,而且在计算时还会出现数据潮汐的传输问题。当电子数据如同海潮一般袭来,数据接收和处理端自然会有点“手忙脚乱”,影响其性能。

然而,光计算则不同。

光芯片利用光波作为载体进行信息处理,具有低延时、低功耗、大带宽等诸多优点,这是一种“传输即计算,结构即功能”的计算架构,有望避免冯·诺依曼计算范式中出现的数据潮汐传输问题。

尤其是在人工智能领域,经常需要处理大规模的数据和执行庞杂的计算任务,因此需要强大的计算能力和高速的数据传输能力。

对此,中国科学院开启了全速研发,2023年5月,中国科学院发布消息称,已成功研制出一款超高集成度光学卷积处理器,成功突破了“光计算”技术的壁垒。相关研究成果发表在《自然-通讯》上。

据悉,这款芯片的运算速度比英伟达的A100还要快1.5-10倍。同时,这款光计算芯片功耗比传统的AI芯片功耗要低很多,关键是不需要使用高端光刻机就可以完成生产。

研究者表示,光学卷积处理单元通过两个4×4多模干涉耦合器和四个移相器,构造了三个2×2相关的实值卷积核。与其它光计算方案相比,该方案具有高算力密度、超高的线性扩展性。

基于这种技术,光芯片性能再次提升,而一旦这种技术应用于AI领域,能实现对现有AI芯片的颠覆,其速度可能不只是快1.5倍-10倍,可能会更快,应用空间广阔。

全球领先的微波光子芯片
日前,香港城市大学副教授王骋团队与香港中文大学研究人员合作,利用铌酸锂为平台,开发出处理速度更快、能耗更低的微波光子芯片,可运用光学进行超快模拟电子信号处理及运算。研究成果已在国际权威学术期刊《自然》上发表。

据了解,微波光子技术使用光学元件以产生、传输和调控微波讯号,但集成微波光子系统一直难以同时实现芯片集成、高保真度及低功耗的超高速模拟信号处理。

为解决这一难题,该团队开发了集成微波光子系统,将超快电光转换模块与低损耗、多功能信号处理模块同时结合在一块芯片上,这是前所未有的成果。

据介绍,这种芯片比传统电子处理器的速度快1000倍,且耗能更低,应用范围广泛,涵盖5/6G无线通讯系统、高解析度雷达系统、人工智能、计算机视觉以及图像和视频处理。能实现这种卓越效能,是透过基于薄膜铌酸锂平台的集成微波光子处理引擎,该平台能执行模拟信号的多用途处理及计算工作。

未来,铌酸锂光子集成芯片有望像硅基集成电路一样,成为高速率、高容量、低能耗光学信息处理的重要平台,在光量子计算、大数据中心、人工智能及光传感激光雷达等领域彰显其应用价值。

麻省理工光学AI芯片实现里程碑式突破
麻省理工学院(MIT)光学人工智能团队首次提出将“时间-空间复用”应用在计算的光芯片设计理念,并采用光电效应做乘法和加法运算。2023年7月,相关论文以《Deep learning with coherent VCSEL neural networks》为题发表在 Nature Photonics 上。

interlace,1

相关论文(图源:Nature Photonics)


这个计算架构在垂直表面发射激光器(VCSEL)阵列实现,并进行实验验证,实现了整体性能突破。

值得关注的是,该系统实现了光学计算芯片对电子计算的优势,提升了100倍的能量效率和20倍的计算密度,有望在近期内实现多个数量级的提升。

当前,AI正在对人们的生活和工作方式产生颠覆性的变化。然而,运转大规模的AI模型需要巨大的计算能力、时间和能量。例如,训练GPT-4用到16000个NVIDIA A100 GPU连续运转4至7个月,消耗成本高达1亿美金。

光学芯片是在光而非电子的运动基础上进行计算。由于超高光学带宽和低损耗的数据传输,光计算芯片有可能在短期内实现几个数量级的算力突破,从而成为下一代计算处理器。

但是,目前,与电子计算芯片相比,光计算芯片的能耗、计算密度等性能仍然有显著差距,可规模化程度低。其主要原因包括:电光转换的效率较低导致的高能耗、集成光器件的尺寸较大导致计算密度低、缺少非线性运算导致高延时等。

与现有的光学计算系统相比,这种新型光电系统具有三方面的优势,包括低能量损耗、高计算密度、光学非线性。

interlace,1

新型AI光子计算芯片系统实验方案和结果(图源:Nature Photonics)


光学计算领域专家、耶鲁大学Logan Wright教授对该研究评价称,“该团队基于调制VCSEL阵列的系统可能是实现大规模、高速光学神经网络的可行途径,这一点鼓舞着我以及该领域的许多其他研究人员。”

并且他对该技术的发展前景给予充分肯定,他认为,虽然目前这技术仍远未达到实际有用设备所需的规模和成本,但对未来几年可以实现的目标感到乐观,特别是考虑到这些系统必须加速非常大规模、非常昂贵的人工智能系统,例如ChatGPT等流行文本GPT系统中使用的系统。

目前,麻省理工学院博士,现为南加州大学电子工程系助理教授陈在俊课题组致力于开发高算力、规模化的光学AI计算方法。据悉,目前团队已经相关申请专利。通过整合目前已有的集成封装技术,加速规模化。

存内光计算
牛津大学博士后董博维所在的课题组,是目前全球唯一实现存内光计算的实验室。该团队由Harish Bhaskaran院士负责,主要研究存内光计算,即存内计算与光计算的结合。

在传统的冯诺依曼架构之中,由于大量数据在内存和处理器之间传递,故会带来能耗问题和延时问题。而在存内计算之中,内存和处理器在空间上可以重叠放置,从而很好地解决上述问题。

对于光计算来说,它能很好地利用光的高速、低能耗、高并行度等优势,从而解决电计算的对应瓶颈。

要想实现存内光计算,光存储器是一个必不可少的组件。光存储器能够以非易失性的方式,改变功能材料的光学特性,即改变材料的折射率或吸收率,从而实现非易失性光存储。

2015年,董博维所在团队曾使用锗锑碲材料首次实现硅光芯片上可控非易失性光存储,并于2019年实现存内光矩阵的运算。

对于人工智能的数据处理来说,高并行度可谓至关重要。传统的中央处理器CPU,采用的是线性处理的方式,即在单位时间之内执行一次运算。图像处理器GPU则采用并行处理方式,在单位时间之内可以并行处理多次运算。这也正是GPU被广泛用于人工智能产业的原因。

高并行度,是光的一大优势。同时,由于光具备不同的自由度,因此可被用于提高其处理并行度,比如不同的偏振、不同的空间模式、不同的波长等。

过去,人们认为采取波分复用的方式,可以提供上限最高的并行度。直到2021年,董博维所在课题组通过利用光的波分复用特性、以及存内光矩阵运算,实现了并行度为4的存内光矩阵运算,并将其成功用于高速图像卷积处理应用中。

近期,该团队发现波分复用所提供的并行度提升并不是存内光计算的上限。通过光电集成,可以很方便地将射频自由度引入存内光计算,实现数个量级的计算并行度提升,这不仅对光计算大有裨益,同时还可用于光通信、光传感等领域。

此外,该团队采用了光电混合芯片的设计方式,其中的可控光学交叉阵列设计十分巧妙,具有很强的拓展性。当把运算单元在二维平内内平铺展开,即可实现大存内光计算矩阵。

为了展示高并行度的优势,课题组在实验中仅使用一个芯片,就能对100张心电图同时进行卷积处理,在患者死亡风险判别上实现了93.5%的准确率。

通过并行使用更多的光波长与射频频率,利用这一方法将能在单一芯片中,针对1000多个数据流进行同时处理,从而能在边缘云计算场景中发挥重要作用。

未来,各团队将继续拓展存内光计算芯片的输入、输出规模,让其能够满足更多的应用场景。

另外,他们还将实现更高效的光电集成。在本次工作中,课题组只是验证通过引入射频自由度来提高光计算并行度的可行性,然而当前不少光电器件采用的依然是片外独立器件。

因此在接下来的工作中,他们非常期待可以将光调制器、光电探测器、解(复用)器件,甚至是光源都集成到单个芯片中,实现高集成度系统。

此外,本次研究中利用了波长自由度和射频自由度,但是光还具有其它自由度,比如常见的偏振自由度和空间模式自由度,基于此课题组还将通过利用更多光自由度,进一步地提高系统并行性。

超大规模集成光量子计算芯片
2023年4月,北京大学王剑威研究员、龚旗煌教授课题组与合作者经过6年联合攻关,研制了基于超大规模集成硅基光子学的图论“光量子计算芯片”——“博雅一号”,发展出了超大规模集成硅基光量子芯片的晶圆级加工和量子调控技术,首次实现了片上多光子高维度量子纠缠态的制备与调控,演示了基于图论的可任意编程玻色取样专用型量子计算。

相关研究成果以《超大规模集成的图量子光子学》为题,在线发表于《自然·光子学》。

据研究团队介绍,图论是数学和计算机科学的一个重要分支,可以用来描述被研究对象间的复杂关系。图论也为描述与刻画量子态、量子器件和量子系统等提供了强有力的数学工具,如图纠缠态是通用量子计算的重要资源态,量子行走可以模拟图网络结构,图可以描述量子关联、研究量子网络等。

图论“光量子计算芯片”是一种以数学图论为理论架构,描述、映射并在芯片上实现光量子计算功能的新型量子计算技术。

北京大学课题组与合作者经过6年联合攻关,发展出了基于互补金属氧化物半导体工艺的晶圆级大规模集成硅基光量子芯片制备技术和量子调控方法,研制了一款集成约2500个元器件的超大规模光量子芯片,实现了基于图论的光量子计算和信息处理功能。

报道指出,这一光量子芯片可与复数图完全一一对应,图的边对应关联光子对源,顶点对应光子源到探测器的路径,芯片输出多重光子计数对应于图的完美匹配。通过编程该光量子芯片可任意重构八顶点无向复图,并执行与图对应的量子信息处理和量子计算任务。

量子纠缠是研究量子基础物理和量子计算前沿应用的核心资源。然而,如何在芯片上制备多光子且高维度的量子纠缠态,一直存在诸多理论和实验挑战。

研究团队利用该光量子芯片,首次实现了多光子且高维度的量子纠缠态的制备、操控、测量和纠缠验证,验证了四光子三维GHZ真纠缠。在图论统一架构下,单一芯片编程实现了多种重要量子纠缠态。多光子高维纠缠可为高维通用型量子计算提供关键资源态。据介绍,基于图论的可编程玻色取样专用型量子计算芯片有望为化学分子模拟、图优化求解、量子辅助机器学习等提供有效解决方案。

光芯片成果不断,落地缓慢?
光芯片看起来是很不错的技术路径,但到底多久才能落地?

经纬创投认为,光芯片商业化有两大路径:第一种思路是短期内不寻求完全替代电,不改动基础架构,最大化地强调通用性,形成光电混合的新型算力网络;另一种思路是把光芯片模块化,不仅仅追求在计算领域的应用,还追求在片上、片间的传输领域应用,追求光模块的“即插即用”。

硅光芯片不是靠尖端制程来获胜,更多是靠速度和功耗,比如光的调制解调的速度、功耗,还有多波复用,在一个波导里面同时能通过多少路光等。

可以理解为,光芯片最大的优势在于技术通用性。

这也不难理解,因为无论是生产商还是客户,最大的诉求之一就是要确保通用性。产品实现“开箱即用”才能够最大限度降低学习成本,不需要对现在的底层框架进行过多修改,就能够适配到成千上万个应用场景中。所以不动基础架构,而是把线性计算的计算核部分用光来部分替代,形成光电混合的算力网络新形式,是最快的商业化路径。

另一方面,全球光计算芯片竞赛,各国和地区相继出台政策推动发展。

美国国防部高级研究计划局(DARPA) 早在2019年就启动“未来计算系统”项目,以研究具备深度学习能力、高算力和低功耗的集成光子芯片。

欧盟在2020开始启动PHOOUSING项目,致力于开发基于集成光子技术的将经典过程和量子过程结合起来的混合计算系统。

我国科技部“十四五”重点专项申报指南中,也将信息光子技术、高性能计算、物态调控、光电混合AI加速计算芯片列为重要内容,其中包括光电混合AI加速计算芯片、量子计算、基于固态微腔光电子芯片、光学神经拟态计算系统等技术的研发。

能看到,如何为智能时代提供更强大算力,许多国家已在思考下一波的发展浪潮,光计算正是颇具潜力的选项之一。

潜力之下,光芯片挑战尚在
虽然提到了很多优势,但光芯片作为一项前沿技术,必然有很多挑战有待克服。

  • 工艺挑战:由于要用于复杂计算,光器件的数量必然会很多,要达到不错的性能至少需要上万个,这会带来更复杂的结构和更大的尺寸。为了实现可编程,必然要对每个器件进行控制,也会要求高集成度和一些Knowhow积累。这些要求会产生一些工艺上的挑战,同时导致成本很高,以及整体稳定性、生产良率都有挑战,所以必须找到一种低成本、高良率的方法,来控制大量光器件的技术。
  • 温度难题:因为是模拟计算,当整个环境温度对电芯片产生影响的时候,对光信号也会产生扰动,影响计算精度。有一种办法是把整个芯片放在恒温环境下,通过温控电路来实现。但这反过来会牺牲一些光计算的低能耗优势。此外,对于温度控制,还包括芯片内部发热,导致对周边器件的影响问题。
  • 产业链未形成成熟分工:光芯片技术门槛高、产品线难以标准化,生产各工艺综合性更强,相比于大规模集成电路已形成高度的产业链分工,光芯片产业链行业尚未形成成熟的设计-代工-封测产业链。
  • 新蓝海市场亟待开拓:光芯片下游大客户为主,可靠性与交付能力是重要竞争力;光芯片产业参与者众多,中低端领域竞争激烈,高端市场仍是蓝海。在算力基础设施建设海量增长的背景下,光芯片将会迎来巨大的机会。
对于我国光芯片产业的发展路径,有业内人士认为或将经历两个阶段:

1)在细分领域凭借自身技术实力,绑定优质客户实现进口替代;
2)产品品类横向扩张,打开远期成长天花板。

由于光芯片行业具备细分品类较多等特点,中短期内看好在细分领域中具备深厚技术积累,且已绑定优质客户的国产厂商,有望率先开启进口替代步伐,占据先发优势;长期来看,具备较强横向扩张能力的光芯片企业更具备竞争优势。

写在最后
光子计算提供了一条超越摩尔定律的算力提升路径。

这一技术方向在过去几年中正在逐渐变热,除了上述高校、研究机构和初创企业的研究之外,包括一些芯片巨头、晶圆厂、EDA公司、封测厂等各环节企业都在积极布局。

虽然光计算还没有完全落地,但硅光芯片每个产业链环节的全面性,是光计算芯片量产的前提。

正如一位投资人所言:这是一个全新的赛道,“超越摩尔定律”也是一个激动人心的口号,但几乎没有前路可以借鉴,开拓者们正在披荆斩棘,技术挑战与商业化风险并存。但唯一可以确定的是,人类社会对提升算力的追求,正比以往任何一个时刻都更加迫切。





举报本楼

本帖有 9 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-24 01:57 , Processed in 0.411515 second(s), 20 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部