当前位置: X-MOL 学术J. Comput. Sci. Tech. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
SIES: A Novel Implementation of Spiking Convolutional Neural Network Inference Engine on Field-Programmable Gate Array
Journal of Computer Science and Technology ( IF 1.2 ) Pub Date : 2020-03-01 , DOI: 10.1007/s11390-020-9686-z
Shu-Quan Wang , Lei Wang , Yu Deng , Zhi-Jie Yang , Sha-Sha Guo , Zi-Yang Kang , Yu-Feng Guo , Wei-Xia Xu

Neuromorphic computing is considered to be the future of machine learning, and it provides a new way of cognitive computing. Inspired by the excellent performance of spiking neural networks (SNNs) on the fields of low-power consumption and parallel computing, many groups tried to simulate the SNN with the hardware platform. However, the efficiency of training SNNs with neuromorphic algorithms is not ideal enough. Facing this, Michael et al . proposed a method which can solve the problem with the help of DNN (deep neural network). With this method, we can easily convert a well-trained DNN into an SCNN (spiking convolutional neural network). So far, there is a little of work focusing on the hardware accelerating of SCNN. The motivation of this paper is to design an SNN processor to accelerate SNN inference for SNNs obtained by this DNN-to-SNN method. We propose SIES (Spiking Neural Network Inference Engine for SCNN Accelerating). It uses a systolic array to accomplish the task of membrane potential increments computation. It integrates an optional hardware module of max-pooling to reduce additional data moving between the host and the SIES. We also design a hardware data setup mechanism for the convolutional layer on the SIES with which we can minimize the time of input spikes preparing. We implement the SIES on FPGA XCVU440. The number of neurons it supports is up to 4 000 while the synapses are 256 000. The SIES can run with the working frequency of 200 MHz, and its peak performance is 1.562 5 TOPS.

中文翻译:

SIES:一种基于现场可编程门阵列的脉冲卷积神经网络推理引擎的新实现

神经拟态计算被认为是机器学习的未来,它提供了一种新的认知计算方式。受到尖峰神经网络 (SNN) 在低功耗和并行计算领域的出色表现的启发,许多团队尝试使用硬件平台来模拟 SNN。然而,使用神经形态算法训练 SNN 的效率不够理想。面对这种情况,迈克尔等人。提出了一种可以借助 DNN(深度神经网络)解决问题的方法。使用这种方法,我们可以轻松地将训练有素的 DNN 转换为 SCNN(尖峰卷积神经网络)。到目前为止,有一些工作专注于 SCNN 的硬件加速。本文的动机是设计一个 SNN 处理器,以加速通过这种 DNN 到 SNN 方法获得的 SNN 的 SNN 推理。我们提出了 SIES(用于 SCNN 加速的尖峰神经网络推理引擎)。它使用收缩阵列来完成膜电位增量计算的任务。它集成了一个可选的最大池硬件模块,以减少主机和 SIES 之间的额外数据移动。我们还为 SIES 上的卷积层设计了一种硬件数据设置机制,通过它我们可以最大限度地减少准备输入尖峰的时间。我们在 FPGA XCVU440 上实现了 SIES。它支持的神经元数量高达4 000个,突触数为256 000个。SIES可以在200 MHz的工作频率下运行,其峰值性能为1.562 5 TOPS。它集成了一个可选的最大池硬件模块,以减少主机和 SIES 之间的额外数据移动。我们还为 SIES 上的卷积层设计了一种硬件数据设置机制,通过它我们可以最大限度地减少准备输入尖峰的时间。我们在 FPGA XCVU440 上实现了 SIES。它支持的神经元数量高达4 000个,突触数为256 000个。SIES可以在200 MHz的工作频率下运行,其峰值性能为1.562 5 TOPS。它集成了一个可选的最大池硬件模块,以减少主机和 SIES 之间的额外数据移动。我们还为 SIES 上的卷积层设计了一个硬件数据设置机制,通过它我们可以最大限度地减少输入尖峰准备的时间。我们在 FPGA XCVU440 上实现了 SIES。它支持的神经元数量高达4 000个,突触数为256 000个。SIES可以在200 MHz的工作频率下运行,其峰值性能为1.562 5 TOPS。
更新日期:2020-03-01
down
wechat
bug