当前位置: X-MOL 学术arXiv.cs.ET › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Molecular and DNA Artificial Neural Networks via Fractional Coding
arXiv - CS - Emerging Technologies Pub Date : 2019-10-12 , DOI: arxiv-1910.05643
Xingyi Liu and Keshab K. Parhi

This paper considers implementation of artificial neural networks (ANNs) using molecular computing and DNA based on fractional coding. Prior work had addressed molecular two-layer ANNs with binary inputs and arbitrary weights. In prior work using fractional coding, a simple molecular perceptron that computes sigmoid of scaled weighted sum of the inputs was presented where the inputs and the weights lie between [-1, 1]. Even for computing the perceptron, the prior approach suffers from two major limitations. First, it cannot compute the sigmoid of the weighted sum, but only the sigmoid of the scaled weighted sum. Second, many machine learning applications require the coefficients to be arbitrarily positive and negative numbers that are not bounded between [-1, 1]; such numbers cannot be handled by the prior perceptron using fractional coding. This paper makes four contributions. First molecular perceptrons that can handle arbitrary weights and can compute sigmoid of the weighted sums are presented. Thus, these molecular perceptrons are ideal for regression applications and multi-layer ANNs. A new molecular divider is introduced and is used to compute sigmoid(ax) where a > 1. Second, based on fractional coding, a molecular artificial neural network (ANN) with one hidden layer is presented. Third, a trained ANN classifier with one hidden layer from seizure prediction application from electroencephalogram is mapped to molecular reactions and DNA and their performances are presented. Fourth, molecular activation functions for rectified linear unit (ReLU) and softmax are also presented.

中文翻译:

通过分数编码的分子和 DNA 人工神经网络

本文考虑使用分子计算和基于分数编码的 DNA 来实现人工神经网络 (ANN)。之前的工作已经解决了具有二进制输入和任意权重的分子两层人工神经网络。在使用分数编码的先前工作中,提出了一个简单的分子感知器,用于计算输入的缩放加权和的 sigmoid,其中输入和权重位于 [-1, 1] 之间。即使是计算感知器,先前的方法也有两个主要限制。首先,它不能计算加权和的 sigmoid,而只能计算缩放加权和的 sigmoid。其次,许多机器学习应用要求系数是任意的正负数,在 [-1, 1] 之间没有界限;使用分数编码的先验感知器无法处理此类数字。本文有四点贡献。介绍了可以处理任意权重并可以计算加权和的 sigmoid 的第一个分子感知器。因此,这些分子感知器是回归应用和多层人工神经网络的理想选择。引入了一种新的分子分频器,用于计算 a > 1 的 sigmoid(ax)。其次,基于分数编码,提出了具有一个隐藏层的分子人工神经网络 (ANN)。第三,经过训练的 ANN 分类器具有来自脑电图癫痫发作预测应用的一个隐藏层,被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。介绍了可以处理任意权重并可以计算加权和的 sigmoid 的第一个分子感知器。因此,这些分子感知器是回归应用和多层人工神经网络的理想选择。引入了一种新的分子分频器,用于计算 a > 1 的 sigmoid(ax)。其次,基于分数编码,提出了具有一个隐藏层的分子人工神经网络 (ANN)。第三,经过训练的 ANN 分类器具有来自脑电图癫痫发作预测应用的一个隐藏层,被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。介绍了可以处理任意权重并可以计算加权和的 sigmoid 的第一个分子感知器。因此,这些分子感知器是回归应用和多层人工神经网络的理想选择。引入了一种新的分子分频器,用于计算 a > 1 的 sigmoid(ax)。其次,基于分数编码,提出了具有一个隐藏层的分子人工神经网络 (ANN)。第三,经过训练的 ANN 分类器具有来自脑电图癫痫发作预测应用的一个隐藏层,被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。这些分子感知器是回归应用和多层人工神经网络的理想选择。引入了一种新的分子分频器,用于计算 a > 1 的 sigmoid(ax)。其次,基于分数编码,提出了具有一个隐藏层的分子人工神经网络 (ANN)。第三,经过训练的 ANN 分类器具有来自脑电图癫痫发作预测应用的一个隐藏层,被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。这些分子感知器是回归应用和多层人工神经网络的理想选择。引入了一种新的分子分频器,用于计算 a > 1 的 sigmoid(ax)。其次,基于分数编码,提出了具有一个隐藏层的分子人工神经网络 (ANN)。第三,经过训练的 ANN 分类器具有来自脑电图癫痫发作预测应用的一个隐藏层,被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。一个训练有素的 ANN 分类器具有一个隐藏层,来自脑电图的癫痫发作预测应用程序被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。一个训练有素的 ANN 分类器具有一个隐藏层,来自脑电图的癫痫发作预测应用程序被映射到分子反应和 DNA,并呈现它们的性能。第四,还介绍了整流线性单元 (ReLU) 和 softmax 的分子激活函数。
更新日期:2020-03-10
down
wechat
bug