当前位置: X-MOL 学术arXiv.cs.NE › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Neuromorphic Computing is Turing-Complete
arXiv - CS - Neural and Evolutionary Computing Pub Date : 2021-04-28 , DOI: arxiv-2104.13983
Prasanna Date, Catherine Schuman, Bill Kay, Thomas Potok

Neuromorphic computing is a non-von Neumann computing paradigm that performs computation by emulating the human brain. Neuromorphic systems are extremely energy-efficient and known to consume thousands of times less power than CPUs and GPUs. They have the potential to drive critical use cases such as autonomous vehicles, edge computing and internet of things in the future. For this reason, they are sought to be an indispensable part of the future computing landscape. Neuromorphic systems are mainly used for spike-based machine learning applications, although there are some non-machine learning applications in graph theory, differential equations, and spike-based simulations. These applications suggest that neuromorphic computing might be capable of general-purpose computing. However, general-purpose computability of neuromorphic computing has not been established yet. In this work, we prove that neuromorphic computing is Turing-complete and therefore capable of general-purpose computing. Specifically, we present a model of neuromorphic computing, with just two neuron parameters (threshold and leak), and two synaptic parameters (weight and delay). We devise neuromorphic circuits for computing all the {\mu}-recursive functions (i.e., constant, successor and projection functions) and all the {\mu}-recursive operators (i.e., composition, primitive recursion and minimization operators). Given that the {\mu}-recursive functions and operators are precisely the ones that can be computed using a Turing machine, this work establishes the Turing-completeness of neuromorphic computing.

中文翻译:

神经形态计算是图灵完备的

神经形态计算是非冯·诺依曼计算范式,它通过模拟人脑来执行计算。神经形态系统具有极高的能源效率,并且已知功耗比CPU和GPU低数千倍。他们有潜力在未来推动关键的用例,例如自动驾驶汽车,边缘计算和物联网。因此,它们被认为是未来计算领域不可或缺的一部分。神经形态系统主要用于基于峰值的机器学习应用程序,尽管在图论,微分方程和基于峰值的模拟中有一些非机器学习应用程序。这些应用表明,神经形态计算可能能够进行通用计算。然而,神经形态计算的通用可计算性尚未建立。在这项工作中,我们证明了神经形态计算是图灵完备的,因此能够进行通用计算。具体来说,我们提出了一种神经形态计算模型,其中只有两个神经元参数(阈值和泄漏)和两个突触参数(权重和延迟)。我们设计了用于计算所有{\ mu}递归函数(即,常数,后继和投影函数)和所有{\ mu}递归运算符(即,合成,原始递归和最小化运算符)的神经形态电路。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。我们证明神经形态计算是图灵完备的,因此能够进行通用计算。具体来说,我们提出了一种神经形态计算模型,其中只有两个神经元参数(阈值和泄漏)和两个突触参数(权重和延迟)。我们设计了用于计算所有{\ mu}递归函数(即,常数,后继和投影函数)和所有{\ mu}递归运算符(即,合成,原始递归和最小化运算符)的神经形态电路。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。我们证明神经形态计算是图灵完备的,因此能够进行通用计算。具体来说,我们提出了一种神经形态计算模型,其中只有两个神经元参数(阈值和泄漏)和两个突触参数(权重和延迟)。我们设计了用于计算所有{\ mu}递归函数(即,常数,后继和投影函数)和所有{\ mu}递归运算符(即,合成,原始递归和最小化运算符)的神经形态电路。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。只有两个神经元参数(阈值和泄漏)和两个突触参数(重量和延迟)。我们设计了用于计算所有{\ mu}递归函数(即,常数,后继和投影函数)和所有{\ mu}递归运算符(即,合成,原始递归和最小化运算符)的神经形态电路。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。只有两个神经元参数(阈值和泄漏)和两个突触参数(重量和延迟)。我们设计了用于计算所有{\ mu}递归函数(即,常数,后继和投影函数)和所有{\ mu}递归运算符(即,合成,原始递归和最小化运算符)的神经形态电路。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。基本递归和最小化运算符)。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。基本递归和最小化运算符)。鉴于{\ mu}递归函数和运算符正是可以使用Turing机器计算的函数和运算符,因此这项工作建立了神经形态计算的Turing完整性。
更新日期:2021-04-30
down
wechat
bug