当前位置:
X-MOL 学术
›
arXiv.cs.CV
›
论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Alpha-Net: Architecture, Models, and Applications
arXiv - CS - Computer Vision and Pattern Recognition Pub Date : 2020-06-27 , DOI: arxiv-2007.07221 Jishan Shaikh, Adya Sharma, Ankit Chouhan, Avinash Mahawar
arXiv - CS - Computer Vision and Pattern Recognition Pub Date : 2020-06-27 , DOI: arxiv-2007.07221 Jishan Shaikh, Adya Sharma, Ankit Chouhan, Avinash Mahawar
Deep learning network training is usually computationally expensive and
intuitively complex. We present a novel network architecture for custom
training and weight evaluations. We reformulate the layers as ResNet-similar
blocks with certain inputs and outputs of their own, the blocks (called Alpha
blocks) on their connection configuration form their own network, combined with
our novel loss function and normalization function form the complete Alpha-Net
architecture. We provided the empirical mathematical formulation of network
loss function for more understanding of accuracy estimation and further
optimizations. We implemented Alpha-Net with 4 different layer configurations
to express the architecture behavior comprehensively. On a custom dataset based
on ImageNet benchmark, we evaluate Alpha-Net v1, v2, v3, and v4 for image
recognition to give the accuracy of 78.2%, 79.1%, 79.5%, and 78.3%
respectively. The Alpha-Net v3 gives improved accuracy of approx. 3% over the
last state-of-the-art network ResNet 50 on ImageNet benchmark. We also present
an analysis of our dataset with 256, 512, and 1024 layers and different
versions of the loss function. Input representation is also crucial for
training as initial preprocessing will take only a handful of features to make
training less complex than it needs to be. We also compared network behavior
with different layer structures, different loss functions, and different
normalization functions for better quantitative modeling of Alpha-Net.
中文翻译:
Alpha-Net:架构、模型和应用
深度学习网络训练通常计算成本高且直观复杂。我们提出了一种用于自定义训练和权重评估的新型网络架构。我们将这些层重新构造为具有特定输入和输出的 ResNet 类似块,其连接配置上的块(称为 Alpha 块)形成自己的网络,结合我们新颖的损失函数和归一化函数形成完整的 Alpha-Net 架构. 我们提供了网络损失函数的经验数学公式,以更好地理解精度估计和进一步优化。我们使用 4 种不同的层配置实现了 Alpha-Net,以全面表达架构行为。在基于 ImageNet 基准的自定义数据集上,我们评估 Alpha-Net v1、v2、v3、和 v4 的图像识别准确率分别为 78.2%、79.1%、79.5% 和 78.3%。Alpha-Net v3 提高了大约 . 在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。
更新日期:2020-07-15
中文翻译:
Alpha-Net:架构、模型和应用
深度学习网络训练通常计算成本高且直观复杂。我们提出了一种用于自定义训练和权重评估的新型网络架构。我们将这些层重新构造为具有特定输入和输出的 ResNet 类似块,其连接配置上的块(称为 Alpha 块)形成自己的网络,结合我们新颖的损失函数和归一化函数形成完整的 Alpha-Net 架构. 我们提供了网络损失函数的经验数学公式,以更好地理解精度估计和进一步优化。我们使用 4 种不同的层配置实现了 Alpha-Net,以全面表达架构行为。在基于 ImageNet 基准的自定义数据集上,我们评估 Alpha-Net v1、v2、v3、和 v4 的图像识别准确率分别为 78.2%、79.1%、79.5% 和 78.3%。Alpha-Net v3 提高了大约 . 在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。