当前位置: X-MOL 学术arXiv.cs.NE › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Spiking Neural Predictive Coding for Continual Learning from Data Streams
arXiv - CS - Neural and Evolutionary Computing Pub Date : 2019-08-23 , DOI: arxiv-1908.08655
Alexander Ororbia

For energy-efficient computation in specialized neuromorphic hardware, we present the Spiking Neural Coding Network, an instantiation of a family of artificial neural models strongly motivated by the theory of predictive coding. The model, in essence, works by operating in a never-ending process of "guess-and-check", where neurons predict the activity values of one another and then immediately adjust their own activities to make better future predictions. The interactive, iterative nature of our neural system fits well into the continuous time formulation of data sensory stream prediction and, as we show, the model's structure yields a simple, local synaptic update rule, which could be used to complement or replace online spike-timing dependent plasticity. In this article, we experiment with an instantiation of our model that consists of leaky integrate-and-fire units. However, the general framework within which our model is situated can naturally incorporate more complex, formal neurons such as the Hodgkin-Huxley model. Our experimental results in pattern recognition demonstrate the potential of the proposed model when binary spike trains are the primary paradigm for inter-neuron communication. Notably, our model is competitive in terms of classification performance, can conduct online semi-supervised learning, naturally experiences less forgetting when learning from a sequence of tasks, and is more computationally economical and biologically-plausible than popular artificial neural networks.

中文翻译:

从数据流中持续学习的脉冲神经预测编码

为了在专门的神经形态硬件中进行节能计算,我们提出了尖峰神经编码网络,这是一系列受预测编码理论强烈推动的人工神经模型的实例。从本质上讲,该模型的工作原理是在一个永无止境的“猜测和检查”过程中运行,神经元预测彼此的活动值,然后立即调整自己的活动以做出更好的未来预测。我们的神经系统的交互性、迭代性非常适合数据传感流预测的连续时间公式,正如我们所展示的,模型的结构产生了一个简单的局部突触更新规则,可用于补充或替代在线峰值时间依赖性可塑性。在本文中,我们试验了我们模型的一个实例,它由泄漏的集成和发射单元组成。然而,我们的模型所在的一般框架自然可以包含更复杂的形式神经元,例如 Hodgkin-Huxley 模型。我们在模式识别中的实验结果证明了当二进制尖峰列车是神经元间通信的主要范式时所提出模型的潜力。值得注意的是,我们的模型在分类性能方面具有竞争力,可以进行在线半监督学习,在从一系列任务中学习时自然会经历更少的遗忘,并且比流行的人工神经网络在计算上更经济且在生物学上更合理。我们的模型所在的一般框架自然可以包含更复杂的形式神经元,例如霍奇金-赫胥黎模型。我们在模式识别中的实验结果证明了当二进制尖峰列车是神经元间通信的主要范式时所提出模型的潜力。值得注意的是,我们的模型在分类性能方面具有竞争力,可以进行在线半监督学习,在从一系列任务中学习时自然会经历更少的遗忘,并且比流行的人工神经网络在计算上更经济且在生物学上更合理。我们的模型所在的一般框架自然可以包含更复杂的形式神经元,例如霍奇金-赫胥黎模型。我们在模式识别中的实验结果证明了当二进制尖峰列车是神经元间通信的主要范式时所提出模型的潜力。值得注意的是,我们的模型在分类性能方面具有竞争力,可以进行在线半监督学习,在从一系列任务中学习时自然会经历更少的遗忘,并且比流行的人工神经网络在计算上更经济且在生物学上更合理。我们在模式识别中的实验结果证明了当二进制尖峰列车是神经元间通信的主要范式时所提出模型的潜力。值得注意的是,我们的模型在分类性能方面具有竞争力,可以进行在线半监督学习,在从一系列任务中学习时自然会经历更少的遗忘,并且比流行的人工神经网络在计算上更经济且在生物学上更合理。我们在模式识别中的实验结果证明了当二进制尖峰列车是神经元间通信的主要范式时所提出模型的潜力。值得注意的是,我们的模型在分类性能方面具有竞争力,可以进行在线半监督学习,在从一系列任务中学习时自然会经历更少的遗忘,并且比流行的人工神经网络在计算上更经济且在生物学上更合理。
更新日期:2020-01-17
down
wechat
bug