当前位置: X-MOL 学术arXiv.cs.CV › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Residual Feature Distillation Network for Lightweight Image Super-Resolution
arXiv - CS - Computer Vision and Pattern Recognition Pub Date : 2020-09-24 , DOI: arxiv-2009.11551
Jie Liu, Jie Tang, Gangshan Wu

Recent advances in single image super-resolution (SISR) explored the power of convolutional neural network (CNN) to achieve a better performance. Despite the great success of CNN-based methods, it is not easy to apply these methods to edge devices due to the requirement of heavy computation. To solve this problem, various fast and lightweight CNN models have been proposed. The information distillation network is one of the state-of-the-art methods, which adopts the channel splitting operation to extract distilled features. However, it is not clear enough how this operation helps in the design of efficient SISR models. In this paper, we propose the feature distillation connection (FDC) that is functionally equivalent to the channel splitting operation while being more lightweight and flexible. Thanks to FDC, we can rethink the information multi-distillation network (IMDN) and propose a lightweight and accurate SISR model called residual feature distillation network (RFDN). RFDN uses multiple feature distillation connections to learn more discriminative feature representations. We also propose a shallow residual block (SRB) as the main building block of RFDN so that the network can benefit most from residual learning while still being lightweight enough. Extensive experimental results show that the proposed RFDN achieve a better trade-off against the state-of-the-art methods in terms of performance and model complexity. Moreover, we propose an enhanced RFDN (E-RFDN) and won the first place in the AIM 2020 efficient super-resolution challenge. Code will be available at https://github.com/njulj/RFDN.

中文翻译:

用于轻量级图像超分辨率的残差特征蒸馏网络

单图像超分辨率 (SISR) 的最新进展探索了卷积神经网络 (CNN) 的强大功能,以实现更好的性能。尽管基于 CNN 的方法取得了巨大成功,但由于计算量大的要求,将这些方法应用于边缘设备并不容易。为了解决这个问题,已经提出了各种快速和轻量级的 CNN 模型。信息蒸馏网络是最先进的方法之一,它采用通道拆分操作来提取蒸馏特征。然而,该操作如何帮助设计高效的 SISR 模型还不够清楚。在本文中,我们提出了特征蒸馏连接(FDC),它在功能上等同于通道拆分操作,同时更轻巧和灵活。感谢 FDC,我们可以重新思考信息多重蒸馏网络 (IMDN),并提出一种轻量级且准确的 SISR 模型,称为残差特征蒸馏网络 (RFDN)。RFDN 使用多个特征蒸馏连接来学习更具判别力的特征表示。我们还提出了一个浅层残差块(SRB)作为 RFDN 的主要构建块,以便网络可以从残差学习中获益最多,同时仍然足够轻量级。大量的实验结果表明,所提出的 RFDN 在性能和模型复杂性方面与最先进的方法取得了更好的权衡。此外,我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。RFDN 使用多个特征蒸馏连接来学习更具判别力的特征表示。我们还提出了一个浅层残差块(SRB)作为 RFDN 的主要构建块,以便网络可以从残差学习中获益最多,同时仍然足够轻量级。大量的实验结果表明,所提出的 RFDN 在性能和模型复杂性方面与最先进的方法取得了更好的权衡。此外,我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。RFDN 使用多个特征蒸馏连接来学习更具判别力的特征表示。我们还提出了一个浅层残差块(SRB)作为 RFDN 的主要构建块,以便网络可以从残差学习中获益最多,同时仍然足够轻量级。大量的实验结果表明,所提出的 RFDN 在性能和模型复杂性方面与最先进的方法取得了更好的权衡。此外,我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。我们还提出了一个浅层残差块(SRB)作为 RFDN 的主要构建块,以便网络可以从残差学习中获益最多,同时仍然足够轻量级。大量的实验结果表明,所提出的 RFDN 在性能和模型复杂性方面与最先进的方法取得了更好的权衡。此外,我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。我们还提出了一个浅层残差块(SRB)作为 RFDN 的主要构建块,以便网络可以从残差学习中获益最多,同时仍然足够轻量级。大量的实验结果表明,所提出的 RFDN 在性能和模型复杂性方面与最先进的方法取得了更好的权衡。此外,我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。我们提出了一种增强型 RFDN(E-RFDN),并在 AIM 2020 高效超分辨率挑战中获得了第一名。代码将在 https://github.com/njulj/RFDN 上提供。
更新日期:2020-09-25
down
wechat
bug