让计算机能以类似人脑神经网络的方式高效地进行学习等认知活动,是计算机科学的终极目标之一。但通常的计算机在模拟包含百亿个甚至更多的神经元及突触的深度神经网络进行学习时,处理速度和效率非常低下。中国科学院计算技术研究所计算机体系结构国家重点实验室陈云霁研究员、Olivier Temam特聘研究员、陈天石副研究员领导的团队在类脑计算机方向取得重要的进展。他们研制了一种采用人工神经网络架构的机器学习运算装置——寒武纪1号,通过高效的分块处理和访存优化,能高效率处理任意规模、任意深度的神经网络,以不到传统处理器1/10的面积和功耗达到了100倍以上的神经网络处理速度,性能功耗比提升了1000倍。相关论文(Tianshi Chen, Zidong Du, Ninghui Sun, Jia Wang, Chengyong Wu, Yunji Chen, and Olivier Temam, "DianNao: A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-Learning")2014年3月发表于本领域最好的国际会议之一ASPLOS(ACM International Conference on Architectural Support for Programming Languages and Operating Systems),并获得了最佳论文奖,这是亚洲科研机构首次获此奖。2014年12月,后继工作DaDianNao: A Machine-Learning Supercomputer再次获得本领域顶级会议MICRO的最佳论文奖,这是MICRO47年来美国之外国家首获此奖。
研究成果