当前位置: X-MOL 学术arXiv.cs.CV › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Alpha-Net: Architecture, Models, and Applications
arXiv - CS - Computer Vision and Pattern Recognition Pub Date : 2020-06-27 , DOI: arxiv-2007.07221
Jishan Shaikh, Adya Sharma, Ankit Chouhan, Avinash Mahawar

Deep learning network training is usually computationally expensive and intuitively complex. We present a novel network architecture for custom training and weight evaluations. We reformulate the layers as ResNet-similar blocks with certain inputs and outputs of their own, the blocks (called Alpha blocks) on their connection configuration form their own network, combined with our novel loss function and normalization function form the complete Alpha-Net architecture. We provided the empirical mathematical formulation of network loss function for more understanding of accuracy estimation and further optimizations. We implemented Alpha-Net with 4 different layer configurations to express the architecture behavior comprehensively. On a custom dataset based on ImageNet benchmark, we evaluate Alpha-Net v1, v2, v3, and v4 for image recognition to give the accuracy of 78.2%, 79.1%, 79.5%, and 78.3% respectively. The Alpha-Net v3 gives improved accuracy of approx. 3% over the last state-of-the-art network ResNet 50 on ImageNet benchmark. We also present an analysis of our dataset with 256, 512, and 1024 layers and different versions of the loss function. Input representation is also crucial for training as initial preprocessing will take only a handful of features to make training less complex than it needs to be. We also compared network behavior with different layer structures, different loss functions, and different normalization functions for better quantitative modeling of Alpha-Net.

中文翻译:

Alpha-Net:架构、模型和应用

深度学习网络训练通常计算成本高且直观复杂。我们提出了一种用于自定义训练和权重评估的新型网络架构。我们将这些层重新构造为具有特定输入和输出的 ResNet 类似块,其连接配置上的块(称为 Alpha 块)形成自己的网络,结合我们新颖的损失函数和归一化函数形成完整的 Alpha-Net 架构. 我们提供了网络损失函数的经验数学公式,以更好地理解精度估计和进一步优化。我们使用 4 种不同的层配置实现了 Alpha-Net,以全面表达架构行为。在基于 ImageNet 基准的自定义数据集上,我们评估 Alpha-Net v1、v2、v3、和 v4 的图像识别准确率分别为 78.2%、79.1%、79.5% 和 78.3%。Alpha-Net v3 提高了大约 . 在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。在 ImageNet 基准测试中比上一个最先进的网络 ResNet 50 高 3%。我们还对具有 256、512 和 1024 层以及不同版本的损失函数的数据集进行了分析。输入表示对于训练也很重要,因为初始预处理将只需要少量特征即可使训练比所需的复杂度低。我们还比较了不同层结构、不同损失函数和不同归一化函数的网络行为,以更好地对 Alpha-Net 进行定量建模。
更新日期:2020-07-15
down
wechat
bug