论文部分内容阅读

随着智能时代对大规模数据处理的要求越来越高,摩尔定律下的处理器集成器件数量越发接近极限,当下急需通过架构的变化以应对大数据的需求。类脑计算芯片结合微电子技术和新型神经形态器件,模仿人脑神经系统计算原理进行设计,旨在突破“冯˙诺依曼瓶颈”,实现类似人脑的超低功耗和并行信息处理能力。
基本概念与内涵
类脑计算芯片(简称“类脑芯片”),广义上指参考人脑神经元结构和人脑感知认知方式来设计的芯片,分为两大类:一是侧重于参照人脑神经元模型及其组织结构来设计芯片结构,称为神经形态芯片,如IBM公司的“真北”;二是侧重于参照人脑感知认知的计算模型而非神经元组织结构,即设计芯片结构来高效支持人工神经网络或深度神经网络等成熟的认知算法。狭义上,类脑芯片一般指神经形态芯片。
类脑芯片尤其是神经形态芯片具有如下特点:善于做复杂时空序列分析;虽然每个神经元发放速率很低,但基于全并行运算,响应速度远远快于现有解决方案;适合做各种传感器信息的实时处理;独有的事件触发运算机制,即当没有动态信息生成的时候不会有运算发生。
发展现状及水平
类脑芯片起源于20世纪80年代,加州理工学院教授卡弗·米德最先提出的“神经拟态计算”的设计理念。2008年美国惠普公司发明出可模仿人脑触功能的忆阻器,使得以硬件形式模仿人脑形态和功能首次成为可能,为类脑芯片的快速发展奠定重要基础。美欧日等均设立各种类脑计划,为未来发展开辟道路,如美国2013年宣布的“通过发展创新性神经技术的大脑研究”计划(简称“大脑”计划)、欧盟第七框架计划的旗舰项目“人脑工程”、日本文部科学省2014年9月启动的“大脑研究计划”等。

美国DARPA在2008年忆阻器研制成功后,迅速啟动总投资1.01亿美元,为期6年的“神经形态自适应可塑可扩展电子系统”项目,旨在研制出具有百万神经元级别的类脑芯片,项目主要由IBM和休斯研究实验室负责。
IBM于2014年发布了第二代“真北”类脑芯片,采用28纳米工艺,含100万个神经元数量、2.56亿个可编程突触、54亿个晶体管,每秒可执行460亿次突触运算,总功耗为70毫瓦,尺寸仅为一张邮票大小,能以80%的正确率对校园监控视频中的行人和车辆进行实时分类,相比执行同样任务的笔记本电脑,“真北”速度是后者的100倍,功率仅为其千分之一。
为加速实现“真北”类脑芯片实际应用,IBM公司还开发出“核心集”硬件描述语言,为类脑芯片的功能定制提供便利。目前,IBM公司以“神经突触核心”为基本模块,已开发出150余种能实现特定功能的算法包。算法包间还可进一步结合,实现更复杂的功能。
IBM公司侧重架构研究,对“真北”芯片中的“神经突触核心”电路做了充分简化,其中的突触只具有导通和断开两种状态。这种设计便于用传统计算机仿真模拟,但缺乏通过即时学习改善芯片性能的能力。休斯研究实验室的“神经突触核心”采用模拟设计,并利用“突触时分复用技术”使每个实体突触都能发挥上万个虚拟突触的作用。2014年6月,该实验室研制出包含576个神经元和7.3万突触的芯片,演示了通过即时学习改善芯片性能的能力。在项目下一阶段,该成果将应用于“真北”架构,构建可实时学习的类脑微处理器。
除“真北”芯片外,英特尔于2017年发布了Loihi类脑芯片,采用异构设计,拥有13万个神经元和1.3亿个突触,可加速机器学习,同时将功耗要求降低到现有芯片的千分之一。英特尔于2019年展示了其最新的可模拟800多万个神经元的Pohoiki