我记得大约在20世纪80年代中期,我看到一些文章宣称光学计算机“就在眼前”。他们没有说的是,这个有争议的角落将被称为“2025年”(如果我们幸运的话)。往好的方面想,光情报的人似乎准备把我们推到那个角落!
我刚刚和斯宾塞·鲍尔斯聊天,他是Lightelligence以及Lightelligence首席执行官沈怡晨。
为了确保我们都在跟着相同的鼓点跳踢踏舞,以下是对light telligence的简要概述。基于麻省理工学院的一系列研究,一篇论文发表在自然光子学在2017年。这个小流氓的名字是相干纳米光子电路的深度学习.2018年,参与撰写这篇论文的人脱离了麻省理工学院,成立了Lightelligence。
这篇原始论文有很多专利,这些专利归麻省理工学院所有,但它们被独家授权给了lighttelligence。2019年,Lightelligence公司的伙计们为人工智能(AI)创建了第一个光子学光学加速器演示。这个被称为COMET的演示包括一个包含约100个光子器件的光子芯片,以及一个Xilinx FPGA,它的第一个AI工作负载涉及识别手写数字。
彗星给一群人留下了深刻的印象,包括一个风险资本家的对冲(风投),事实证明——仅仅一年后的2020年——Lightelligence筹集了超过1亿美元,拥有约150名员工。顺便说一句,2020年也是他们发表研究报告的一年光子发生器的启发式循环算法纸自然通讯(我敢肯定,如果我母亲有时间读这篇论文,她会说这篇论文真的很引人入胜,但她有点忙着玩Wordle目前)。
在我们窥探光情报的热门新闻之前,让我们先花点时间来设定场景。让我们从事实开始,正如在人工智能与计算在OpenAI的论文中,我们可以将AI的发展分为两个不同的计算使用时代,就训练AI系统而言。下图反映了AI计算在多个领域的需求:语音、视觉、语言和游戏。
人工智能计算的两个时代(图片来源:OpenAI)。
在第一个时代,即1959年至2012年,人工智能计算需求大约每两年翻一番,这大致符合摩尔定律。该定律最初指的是集成电路(IC)上可以创建的晶体管数量,但它也被用作计算能力的衡量标准。相比之下,从2012年到现在,我们可能认为是现代时代,我们看到人工智能计算每3.4个月翻一番!
除了在很大程度上受摩尔定律约束的传统cpu难以跟上之外,电子产品也开始达到其物理极限。是的,我知道我们以前都听过这种说法。我在1980年左右设计的第一个ASIC是5微米技术节点。几年后,当我们接近1微米技术节点时,业内专家宣称,“这是终点”,他们不断宣称,我们穿过0.8微米、0.35微米、0.18微米和0.13微米节点,然后穿过65纳米、45纳米和28纳米节点,你知道它是如何发展的。
另一方面,我担心我们真的开始接近传统电子设备的物理极限了。例如,从16纳米节点转移到7纳米节点,在相同的性能下,我们可以获得-60%的功率,或者在相同的功率下获得+40%的性能。相比之下,从7纳米节点转移到5纳米节点在相同性能下只能提供-30%的功率,或在相同功率下提供+15%的性能。所有这些都提出了一个问题:“我们能跌到多低?”
与此同时,该行业正面临着无法满足的计算和吞吐量需求,以及对能源效率和降低总拥有成本(TCO)的要求。据Lightelligence的工作人员介绍,解决方案是转向光子计算,用他们所谓的“光子专用集成电路”扩展当前的处理器产品(cpu、gpu、fpga和专用集成电路)。
向光子学asic问好(图片来源:Lightelligence)。
使用光子学可提供每通道> 1tb /s的高吞吐量(与铜线相比,每通道最高可达1gb /s),更高的能源效率(与电子电路不同,没有欧姆加热)和低延迟(与ASIC/TPU实现的~1µs相比,矩阵乘法<< 1ns)。
目前,Lightelligence的光电子技术应用范围从云和数据中心到现场服务器,市场范围从云人工智能到金融到智能零售,应用范围从计算机视觉到自然语言处理(想想Alexa和Siri)到光学字符识别。
所有这些都让我们想到了Lightelligence公司最近的一项技术突破,即他们最新的完全集成计算系统——光子算术计算引擎(PACE)这个视频.
事实上,PACE为该公司提供了光学计算在人工智能和深度学习之外的第一次演示。例如,它可以有效地搜索一些最难的计算任务的解决方案,例如Ising、Max-Cut图和Min-Cut图,这些都属于NP-Complete数学问题的一类。np完备问题的算法有数百种实际应用,从生物信息学,到调度,到电路设计,到发现新材料(你还记得我的专栏吗欢迎来到可重构智能表面的世界我在信中说:“……我相信我们很快就会打开材料时代的大门……”)。
在一个芯片上有大约12,000个光子器件,PACE比之前的演示平台COMET快了大约1,000,000倍(你必须承认,在短短几年内提高了10^6,这“并不坏”)。虽然这个演示并没有显示出所有应用程序的光学优势,但PACE运行这种特殊的Ising问题算法的速度比Nvidia的RTX 3080等计算单元快数百倍的)世界上最先进的图形处理器。
跟PACE打个招呼(图片来源:Lightelligence)。
PACE核心的实际光子学ASIC位于透明盒子下面的模块中间。
在我让你太兴奋之前,我应该注意到,目前光子ASIC中的约12,000个器件用于实现一个64 x 64的收缩阵列,可以执行各种线性操作,如矩阵加法,乘法等等(几乎任何矩阵操作都可以,现在我开始思考它)。在未来的产品中,除了阵列本身(其中光学器件提供低延迟和低功耗)之外,还将有一个芯片上的光学网络(NOC),用于在阵列和支持电路之间传输数据(其中光学器件将提供高吞吐量和低功耗),因为光学阵列仍然需要访问常规电子存储器(SRAM、GDDR、HBM等),这些存储器理想地位于同一封装中。
所以,现在的情况是这样的。我们目前有PACE,它在很大程度上仍然是一个概念验证。下一步将在2022年推出具有PCIe形状的试点AI加速器。这一试点人工智能加速器将与全球金融和云计算领域的领导者一起创建。Lightelligence公司的人说,2023年将推出基于光子学的云人工智能加速器,这将让我高兴得尖叫(实际上,我想是我说过我会高兴得尖叫,但没有必要吹毛求疵)。
未来光学路线图(图片来源:Lightelligence)。
现在,所有这些都是令人兴奋的,就其发展而言,它实际上走得相当远,但光子64 x 64收缩阵列与光学计算机并不完全相同(尽管,由于没有人真正见过光学计算机,我可能会在这里走出去)。但后来我开始想…
我参加了2021年英特尔架构日,英特尔在会上宣布了架构方面的进展,这些进展的影响将在未来几年产生深远影响(参见英特尔架构的新进展会定义下一个计算十年吗?).英特尔的下一代处理器将配备收缩阵列,以处理人工智能和图形等应用程序所需的所有矩阵处理。如果这些阵列被对应的光子阵列所取代,你认为会发生什么?此外,英特尔的嵌入式多晶片互连桥(EMIB)技术目前被用于在同一个系统封装(SiP)中连接多个异构硅晶片。我们是否很快就会看到光子emib (p - emib)的引入?
像往常一样,我惊讶地发现我们这么快就走了这么远,我渴望看到我们未来会走向何方。你呢?对于你在这里读到的东西,你有什么想法想要分享吗?
连一个电路元件都没有?……令人失望
嗨,吉恩-展示一个电路元件是一个棘手的问题,因为我的理解是它都是用模拟光干涉完成的(这让我的大脑很疼),但我打赌,如果你联系他们,他们会很高兴告诉你并向你展示更多。