当前位置: X-MOL 学术arXiv.cs.AR › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
SparkXD: A Framework for Resilient and Energy-Efficient Spiking Neural Network Inference using Approximate DRAM
arXiv - CS - Hardware Architecture Pub Date : 2021-02-28 , DOI: arxiv-2103.00421
Rachmad Vidya Wicaksana Putra, Muhammad Abdullah Hanif, Muhammad Shafique

Spiking Neural Networks (SNNs) have the potential for achieving low energy consumption due to their biologically sparse computation. Several studies have shown that the off-chip memory (DRAM) accesses are the most energy-consuming operations in SNN processing. However, state-of-the-art in SNN systems do not optimize the DRAM energy-per-access, thereby hindering achieving high energy-efficiency. To substantially minimize the DRAM energy-per-access, a key knob is to reduce the DRAM supply voltage but this may lead to DRAM errors (i.e., the so-called approximate DRAM). Towards this, we propose SparkXD, a novel framework that provides a comprehensive conjoint solution for resilient and energy-efficient SNN inference using low-power DRAMs subjected to voltage-induced errors. The key mechanisms of SparkXD are: (1) improving the SNN error tolerance through fault-aware training that considers bit errors from approximate DRAM, (2) analyzing the error tolerance of the improved SNN model to find the maximum tolerable bit error rate (BER) that meets the targeted accuracy constraint, and (3) energy-efficient DRAM data mapping for the resilient SNN model that maps the weights in the appropriate DRAM location to minimize the DRAM access energy. Through these mechanisms, SparkXD mitigates the negative impact of DRAM (approximation) errors, and provides the required accuracy. The experimental results show that, for a target accuracy within 1% of the baseline design (i.e., SNN without DRAM errors), SparkXD reduces the DRAM energy by ca. 40% on average across different network sizes.

中文翻译:

SparkXD:使用近似DRAM的弹性和节能尖峰神经网络推断框架

尖峰神经网络(SNN)由于其生物稀疏计算而具有实现低能耗的潜力。多项研究表明,片外存储器(DRAM)访问是SNN处理中最耗能的操作。但是,SNN系统中的最新技术无法优化DRAM的每次访问能量,从而阻碍了实现高能量效率。为了实质上最小化每次访问的DRAM能量,一个关键旋钮是降低DRAM的供电电压,但这可能会导致DRAM错误(即所谓的近似DRAM)。为此,我们提出了SparkXD,这是一个新颖的框架,可为遭受电压感应错误的低功耗DRAM提供全面,联合的解决方案,以进行有弹性且高能效的SNN推理。SparkXD的关键机制是:(1)通过考虑来自近似DRAM的位错误的故障意识训练来提高SNN错误容忍度;(2)分析改进的SNN模型的错误容忍度,以找到满足目标精度约束的最大可容忍误码率(BER) (3)弹性SNN模型的节能DRAM数据映射,该模型在适当的DRAM位置映射权重,以最大程度地减少DRAM的访问能量。通过这些机制,SparkXD减轻了DRAM(近似)错误的负面影响,并提供了所需的准确性。实验结果表明,对于在基线设计的1%以内的目标精度(即,无DRAM错误的SNN),SparkXD将DRAM能量降低了约5%。不同网络规模的平均比例为40%。(2)分析改进的SNN模型的容错能力,以找到满足目标精度约束的最大可容忍误码率(BER),以及(3)弹性SNN模型的节能DRAM数据映射,该模型映射权重适当的DRAM位置以最大程度地减少DRAM的访问能量。通过这些机制,SparkXD减轻了DRAM(近似)错误的负面影响,并提供了所需的准确性。实验结果表明,对于在基线设计的1%以内的目标精度(即,无DRAM错误的SNN),SparkXD将DRAM能量降低了约5%。不同网络规模的平均比例为40%。(2)分析改进的SNN模型的容错能力,以找到满足目标精度约束的最大可容忍误码率(BER),以及(3)弹性SNN模型的节能DRAM数据映射,该模型映射权重适当的DRAM位置以最大程度地减少DRAM的访问能量。通过这些机制,SparkXD减轻了DRAM(近似)错误的负面影响,并提供了所需的准确性。实验结果表明,对于在基线设计的1%以内的目标精度(即,无DRAM错误的SNN),SparkXD将DRAM能量降低了约5%。不同网络规模的平均比例为40%。(3)弹性SNN模型的节能DRAM数据映射,该模型在适当的DRAM位置映射权重,以最大程度地减少DRAM的访问能量。通过这些机制,SparkXD减轻了DRAM(近似)错误的负面影响,并提供了所需的准确性。实验结果表明,对于在基线设计的1%以内的目标精度(即,无DRAM错误的SNN),SparkXD将DRAM能量降低了约5%。不同网络规模的平均比例为40%。(3)弹性SNN模型的节能DRAM数据映射,该模型在适当的DRAM位置映射权重,以最大程度地减少DRAM的访问能量。通过这些机制,SparkXD减轻了DRAM(近似)错误的负面影响,并提供了所需的准确性。实验结果表明,对于在基线设计的1%以内的目标精度(即,无DRAM错误的SNN),SparkXD将DRAM能量降低了约5%。不同网络规模的平均比例为40%。没有DRAM错误的SNN),SparkXD将DRAM能耗降低了约5%。不同网络规模的平均比例为40%。没有DRAM错误的SNN),SparkXD将DRAM能耗降低了约5%。不同网络规模的平均比例为40%。
更新日期:2021-03-02
down
wechat
bug