当前位置: X-MOL 学术Front. Comput. Neurosci. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Brain Inspired Sequences Production by Spiking Neural Networks With Reward-Modulated STDP
Frontiers in Computational Neuroscience ( IF 2.1 ) Pub Date : 2021-01-19 , DOI: 10.3389/fncom.2021.612041
Hongjian Fang , Yi Zeng , Feifei Zhao

Understanding and producing embedded sequences according to supra-regular grammars in language has always been considered a high-level cognitive function of human beings, named “syntax barrier” between humans and animals. However, some neurologists recently showed that macaques could be trained to produce embedded sequences involving supra-regular grammars through a well-designed experiment paradigm. Via comparing macaques and preschool children's experimental results, they claimed that human uniqueness might only lie in the speed and learning strategy resulting from the chunking mechanism. Inspired by their research, we proposed a Brain-inspired Sequence Production Spiking Neural Network (SP-SNN) to model the same production process, followed by memory and learning mechanisms of the multi-brain region cooperation. After experimental verification, we demonstrated that SP-SNN could also handle embedded sequence production tasks, striding over the “syntax barrier.” SP-SNN used Population-Coding and STDP mechanism to realize working memory, Reward-Modulated STDP mechanism for acquiring supra-regular grammars. Therefore, SP-SNN needs to simultaneously coordinate short-term plasticity (STP) and long-term plasticity (LTP) mechanisms. Besides, we found that the chunking mechanism indeed makes a difference in improving our model's robustness. As far as we know, our work is the first one toward the “syntax barrier” in the SNN field, providing the computational foundation for further study of related underlying animals' neural mechanisms in the future.



中文翻译:

带有奖励调制STDP的尖刺神经网络的大脑灵感序列产生

一直以来,根据语言中的超常规语法来理解和产生嵌入序列一直被认为是人类的高级认知功能,被称为人与动物之间的“句法屏障”。但是,一些神经学家最近表明,可以通过精心设计的实验范式来训练猕猴产生涉及超规则语法的嵌入序列。通过比较猕猴和学龄前儿童的实验结果,他们声称人类的独特性可能仅在于分块机制产生的速度和学习策略。在他们的研究启发下,我们提出了一种脑启发式序列生产加标神经网络(SP-SNN),以对相同的生产过程进行建模,然后建立多脑区域合作的记忆和学习机制。经过实验验证,我们证明SP-SNN还可以处理嵌入式序列产生任务,跨越“语法障碍”。SP-SNN使用人口编码和STDP机制来实现工作记忆,使用向后调制STDP机制来获取超常规语法。因此,SP-SNN需要同时协调短期可塑性(STP)和长期可塑性(LTP)机制。此外,我们发现分块机制确实在改善模型的鲁棒性方面有所作为。据我们所知,我们的工作是在SNN领域迈向“语法障碍”的第一个工作,为将来进一步研究相关基础动物的神经机制提供了计算基础。跨越“语法障碍”。SP-SNN使用人口编码和STDP机制来实现工作记忆,使用向后调制STDP机制来获取超常规语法。因此,SP-SNN需要同时协调短期可塑性(STP)和长期可塑性(LTP)机制。此外,我们发现分块机制确实在改善模型的鲁棒性方面有所作为。据我们所知,我们的工作是针对SNN领域中“语法障碍”的第一项工作,为将来进一步研究相关基础动物的神经机制提供了计算基础。跨越“语法障碍”。SP-SNN使用人口编码和STDP机制来实现工作记忆,使用向后调制STDP机制来获取超常规语法。因此,SP-SNN需要同时协调短期可塑性(STP)和长期可塑性(LTP)机制。此外,我们发现分块机制确实在改善模型的鲁棒性方面有所作为。据我们所知,我们的工作是在SNN领域迈向“语法障碍”的第一个工作,为将来进一步研究相关基础动物的神经机制提供了计算基础。SP-SNN需要同时协调短期可塑性(STP)和长期可塑性(LTP)机制。此外,我们发现分块机制确实在改善模型的鲁棒性方面有所作为。据我们所知,我们的工作是SNN领域中第一个针对“语法障碍”的工作,为将来进一步研究相关底层动物的神经机制提供了计算基础。SP-SNN需要同时协调短期可塑性(STP)和长期可塑性(LTP)机制。此外,我们发现分块机制确实在改善模型的鲁棒性方面有所作为。据我们所知,我们的工作是针对SNN领域中“语法障碍”的第一项工作,为将来进一步研究相关基础动物的神经机制提供了计算基础。

更新日期:2021-02-16
down
wechat
bug