当前位置: X-MOL 学术Neural Netw. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
ACSL: Adaptive correlation-driven sparsity learning for deep neural network compression
Neural Networks ( IF 7.8 ) Pub Date : 2021-09-16 , DOI: 10.1016/j.neunet.2021.09.012
Wei He 1 , Meiqing Wu 1 , Siew-Kei Lam 1
Affiliation  

Deep convolutional neural network compression has attracted lots of attention due to the need to deploy accurate models on resource-constrained edge devices. Existing techniques mostly focus on compressing networks for image-level classification, and it is not clear if they generalize well on network architectures for more challenging pixel-level tasks, e.g., dense crowd counting or semantic segmentation. In this paper, we propose an adaptive correlation-driven sparsity learning (ACSL) framework for channel pruning that outperforms state-of-the-art methods on both image-level and pixel-level tasks. In our ACSL framework, we first quantify the data-dependent channel correlation information with a channel affinity matrix. Next, we leverage these inter-dependencies to induce sparsity into the channels with the introduced adaptive penalty strength. After removing the redundant channels, we obtain compact and efficient models, which have significantly less number of parameters while maintaining comparable performance with the original models. We demonstrate the advantages of our proposed approach on three popular vision tasks, i.e., dense crowd counting, semantic segmentation, and image-level classification. The experimental results demonstrate the superiority of our framework. In particular, for crowd counting on the Mall dataset, the proposed ACSL framework is able to reduce up to 94% parameters (VGG16-Decoder) and 84% FLOPs (ResNet101), while maintaining the same performance of (at times outperforming) the original model.



中文翻译:

ACSL:用于深度神经网络压缩的自适应相关驱动稀疏学习

由于需要在资源受限的边缘设备上部署准确的模型,深度卷积神经网络压缩引起了很多关注。现有技术主要集中在压缩网络以进行图像级分类,目前尚不清楚它们是否能很好地泛化网络架构以处理更具挑战性的像素级任务,例如密集人群计数或语义分割。在本文中,我们提出了一种自适应相关驱动稀疏学习 (ACSL) 框架,用于通道修剪,该框架在图像级和像素级任务上均优于最先进的方法。在我们的 ACSL 框架中,我们首先用通道亲和度矩阵量化依赖于数据的通道相关信息。接下来,我们利用这些相互依赖性将稀疏性引入具有引入的自适应惩罚强度的通道中。去除冗余通道后,我们获得了紧凑高效的模型,其参数数量明显减少,同时保持与原始模型相当的性能。我们展示了我们提出的方法在三个流行的视觉任务上的优势,即密集人群计数、语义分割和图像级分类。实验结果证明了我们框架的优越性。特别是,对于 Mall 数据集上的人群计数,提出的 ACSL 框架能够减少高达 94% 的参数(VGG16-Decoder)和 84% 的 FLOPs(ResNet101),同时保持与原始数据相同的性能(有时优于)模型。在保持与原始模型相当的性能的同时,参数数量明显减少。我们展示了我们提出的方法在三个流行的视觉任务上的优势,即密集人群计数、语义分割和图像级分类。实验结果证明了我们框架的优越性。特别是,对于 Mall 数据集上的人群计数,提出的 ACSL 框架能够减少高达 94% 的参数(VGG16-Decoder)和 84% 的 FLOPs(ResNet101),同时保持与原始数据相同的性能(有时优于)模型。在保持与原始模型相当的性能的同时,参数数量明显减少。我们展示了我们提出的方法在三个流行的视觉任务上的优势,即密集人群计数、语义分割和图像级分类。实验结果证明了我们框架的优越性。特别是,对于 Mall 数据集上的人群计数,提出的 ACSL 框架能够减少高达 94% 的参数(VGG16-Decoder)和 84% 的 FLOPs(ResNet101),同时保持与原始数据相同的性能(有时优于)模型。实验结果证明了我们框架的优越性。特别是,对于 Mall 数据集上的人群计数,提出的 ACSL 框架能够减少高达 94% 的参数(VGG16-Decoder)和 84% 的 FLOPs(ResNet101),同时保持与原始数据相同的性能(有时优于)模型。实验结果证明了我们框架的优越性。特别是,对于 Mall 数据集上的人群计数,提出的 ACSL 框架能够减少高达 94% 的参数(VGG16-Decoder)和 84% 的 FLOPs(ResNet101),同时保持与原始数据相同的性能(有时优于)模型。

更新日期:2021-09-30
down
wechat
bug