模拟电路每次计算操作消耗的能量比CMOS电路更少,因此能效更高。
数字超级计算机造价昂贵且能耗巨大。即便如此,它们在处理人脑擅长的问题(如理解语音或识别照片内容)时仍然十分吃力。过去几年,尽管运用深度学习算法的人工神经网络取得了很大进展,但一些计算机科学家认为,通过采用更接近于生物大脑的系统,他们可以做得更好,这就是神经形态(neuromorphic)计算,也被称为脑模拟。神经形态计算不仅能完成目前的计算机无法完成的任务,还能让我们更清楚地理解人类记忆和认知的机理。不仅如此,如果研究者们能够研制出用模拟电路构建的这种机器,那么这种机器所需要的能耗将大大低于现在的计算机。
美国国家标准和技术研究院(NIST)纳米科学和技术中心坐落于马里兰州盖瑟斯堡。该中心的项目主管、物理学家马克·斯太尔斯(Mark Stiles)说:“研究神经形态计算的真正动力是能效,而目前基于CMOS的设计能效尤其不佳。”模拟电路每次计算操作所消耗的能量比现在的互补金属氧化物半导体(CMOS)电路更少,因此能效更高。但另一方面,模拟电路对噪声很敏感,而且目前设计和制造模拟电路的技术不如CMOS芯片先进。
日本仙台东北大学大野英男教授的纳米电子学和自旋电子学实验室致力于这种模拟电子元件的研究。他们已经做出了一种可用作人工突触的器件,该器件的研制基于自旋电子学,即电子自旋产生磁性这一量子理论。他们研制的器件由一条钴/镍带组成,具有铁磁性,这意味着在其中自旋将全部对齐。然后把它和一条反铁磁性的铂锰合金带交叉,该材料中相邻原子层里的电子自旋方向是相互垂直的。在反铁磁性层上施加电流能影响其自旋方向,这又会导致向磁层中的自旋电子施加扭矩,从而将磁化程度从高向低切换。与数字系统不同,这种切换不限于0或1两种状态,而是能被细分,取决于所施加的电流量。
低于开关电流量的读取电流不会导致磁化切换,但输出电压取决于磁化水平。发送多个信号可导致自旋电子器件调整自身的阻抗,从而产生类似于加强或削弱神经元之间连接的效果,就和大脑中的突触在形成记忆时一样,脑科学家把这个过程称为可塑性。参与本项目工作的大野实验室博士研究生威廉·伯德斯(William Borders)说:“我们在这个学习过程中发出的信号越多——即在学习理解过程中增加或减少权重的次数越多,就越有机会让系统记住我们真正想让它做什么。通过训练系统把一种磁化模式与字母C相关联,另一种磁化模式与字母T相关联,然后系统将能通过测量阻抗来再次识别这些字母。”
不同于大野的研究小组模拟单个突触,斯太尔斯的研究小组正在基于自旋电子学模拟一组神经元和突触。他们的器件由两个被隔开的铁磁层组成。当电流流过结点时,它在材料的自旋电子上产生一个扭矩,这将产生磁化的非线性振荡,从而产生电压振荡。真正的神经元与这种非线性振荡器有类似的行为,会发出电脉冲并相互同步。因此,自旋电子振荡器可以模拟大脑中的活动。
另一种用模拟电路技术构建突触的方法是采用忆阻器,忆阻器是最近被发现的第四种基本电路元件。忆阻器中电流的流动会改变其电阻,从而使器件具有存储性。加州大学圣巴巴拉分校电气和计算机工程教授德米特里·斯特鲁科夫(Dmitri Strukov)正在使用忆阻器来创建一个具有简化突触功能的多层感知器网络。他说:“生物网络要复杂得多,例如,根据脉冲的发送时机和形状进行信息编码,而我们目前只能忽略这一切。”
在学习阶段,用高电压调整忆阻器的状态;在推理阶段(例如尝试将新的视觉模式与已学习过的模式进行匹配)则用较低的电压。斯特鲁科夫说,忆阻器是颇具前景的技术,因为有可能把它们做得很小,并且很容易堆叠,从而满足神经形态系统所要求的高密度性。但另一方面,制造它们的工艺过程还不够完善,目前还不能可靠地生产出数十亿个完好的器件。
斯特鲁科夫也把闪存用作突触。这种闪存突触是基于CMOS技术的,因此工作可靠。但因为很难缩小这种器件的尺寸,或者将其更高密度地堆叠,所以要扩展到具有数十亿个器件的高密度网络颇具挑战性。
另一种不同的构建突触的方法是利用约瑟夫逊结,这种结是两块超导材料夹一块很薄的绝缘材料而构成的结构。科罗拉多州博尔德市NIST的物理学家斯蒂芬·鲁塞克(Stephen Russek)将锰磁纳米颗粒放在两层铌材料之间的无定形硅绝缘层里。对系统施加脉冲电流会改变绝缘层中的磁结构——相当于突触记忆——这会影响电流在超导体中流动的方式。在某个点上,超导体开始发出脉冲电压,就像大脑中的神经元一样。鲁塞克说:“这与一个真正的由突触构成的神经系统中所发生的现象非常类似,树突和轴突之间有间隙,该间隙中的纳米结构决定了突触前膜的耦合和脉冲概率。”他认为,这种方法较CMOS和自旋电子的优势在于:约瑟夫逊结是一个天然的脉冲单元,因此它比其他器件更类似于大脑。NIST的系统类似于真实大脑还在于即使当机器处于待机状态时,信号活动依然继续进行。鲁塞克说:“就像大脑一样,你不能把它关掉,它总是在工作。”他想模拟这种持续的活动,因为这种活动可能具有创造性能力。“我们想要实现这种持续性活动的模拟,因为这正是大脑所做的,我们认为这是学习的重要组成部分。”
卡尔赫兹·梅尔(Karlheinz Meier)是一位物理学家,曾负责神经形态混合系统中大脑启发多尺度计算(Brain-inspired multiscale computation in neuromorphic hybrid systems, BrainScaleS)项目,该项目是欧盟脑计划的一部分,其目标是到2015年底开发出混合信号神经形态系统。他说,神经形态计算中必须包含这种随机活动,并且要能够把控模拟电路对噪声的敏感性。“我们必须学会如何做我所谓的‘脏运算’,学会如何应对并非完美的器件”。
到目前为止,这些模拟系统的规模都非常小。例如,日本东北大学制成了包含36个自旋电子的神经突触芯片。斯特鲁科夫的最新的忆阻器器件具有约400个突触,而他的闪存系统有10万个突触。相比之下,IBM的神经计算数字化芯片TrueNorth模拟了1亿个脉冲神经元和2.56亿个突触,功耗仅70毫瓦。但斯特鲁科夫认为,他的闪存芯片效率更高,当与IBM TrueNorth芯片执行相同任务时,能耗和延迟比TrueNorth要低三个数量级。即使是TrueNorth也与人脑相去甚远,人脑包含大约1000亿个神经元,可能由大约100万亿个突触连接,功耗在20瓦左右。
IBM大脑启发研究小组首席科学家达蒙德拉·莫达(Dharmendra Modha)说,“数字化对TrueNorth很重要。这是因为形成神经网络的学习是在单独的系统上完成的,然后将网络转移到芯片,在芯片上可以满足低功耗需求运行。”他认为,这么做需要采用一种数字化方式,因为它有助于保证软硬件之间的一一对应,而这对于容易发生信号泄漏的模拟电路来说难以实现。
莫达说:“目前,数字化方式让IBM在政府资助项目的规定期限里构建了一个神经形态芯片。该项目使得公司能尝试建立可能会很快产生实际应用的新架构,也可能使得在未来系统中使用模拟电路材料而不是硅材料。我们的观点不是在模拟与数字中二选一。恰恰相反,公司正在尝试各种架构、材料和方法,从而发现哪个能够胜出,哪个能在通往人脑型计算机终极目标的道路上发挥作用。”
类似地,去年在英国曼彻斯特大学完成的数字脉冲神经网络架构(Spiking Neural Network Architecture, SpiNNaker)芯片,是一种大规模并行神经网络,这个项目是欧洲脑计划项目的一部分。它可能会在较短时间内找到神经形态计算的商业应用。该校计算机科学学院计算机工程系教授史蒂夫·福伯(Steve Furber)是SpiNNaker项目负责人。他认为,与用硬件配置网络的模拟方案,或者与并不在芯片上执行网络训练的TrueNorth比较,SpiNNaker要灵活得多。他说:“如果你对脉冲网络上的潜在应用有那么一点点奇妙想法,那么最容易用来实现原型系统的机器就是SpiNNaker。当你确切地知道你想要什么时,你可能会去重新实现它,你可以选择用非常高效的TrueNorth数字形式,或者用某种模拟形式。”
芝加哥大学计算机教授瑞克·史蒂文斯(Rick Stevens)表示,模拟神经形态计算还处于早期阶段。“目前我们没有任何足够好的神经形态硬件作为一个看似合理的计算平台,”他说,“如果你想执行真正的深度学习任务,你不会在模拟硬件上运行它们。”但是,他又说,这种技术还是值得我们去探索,就如同探索另一种遥远的量子计算技术一样。
鲁塞克也同意以下说法:获得与狗或猴子大脑相同神经元数量的模拟神经形态计算机可能需要25年之久,这取决于非硅技术的发展,但他相信该领域有可能改变计算的世界。他说:“大自然是一个很好的榜样,她的进化用了50亿年的时间,希望我们能用更少的时间。” ■
本文译自Communications of the ACM, “Building a Brain May Mean Going Anolog”, 2017, 60(7):13-15一文。
作 者:尼尔·塞维齐(Neil Savage) 来自美国马萨诸塞州洛厄尔市的一位科学与技术作家。
中科院计算所韩银和研究员对本文亦有贡献。
所有评论仅代表网友意见