当前位置: X-MOL 学术Image Vis. Comput. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
GIFSL - grafting based improved few-shot learning
Image and Vision Computing ( IF 4.2 ) Pub Date : 2020-08-19 , DOI: 10.1016/j.imavis.2020.104006
Pratik Mazumder , Pravendra Singh , Vinay P. Namboodiri

A few-shot learning model generally consists of a feature extraction network and a classification module. In this paper, we propose an approach to improve few-shot image classification performance by increasing the representational capacity of the feature extraction network and improving the quality of the features extracted by it. The ability of the feature extraction network to extract highly discriminative features from images is essential to few-shot learning. Such features are generally class agnostic and contain information about the general content of the image. Our approach improves the training of the feature extraction network in order to enable them to produce such features. We train the network using filter-grafting along with an auxiliary self-supervision task and a knowledge distillation procedure. Particularly, filter-grafting rejuvenates unimportant (invalid) filters in the feature extraction network to make them useful and thereby, increases the number of important filters that can be further improved by using self-supervision and knowledge distillation techniques. This combined approach helps in significantly improving the few-shot learning performance of the model. We perform experiments on several few-shot learning benchmark datasets such as mini-ImageNet, tiered-ImageNet, CIFAR-FS, and FC100 using our approach. We also present various ablation studies to validate the proposed approach. We empirically show that our approach performs better than other state-of-the-art few-shot learning methods.



中文翻译:

GIFSL-基于嫁接的改进的少拍学习

几次学习模型通常由特征提取网络和分类模块组成。在本文中,我们提出了一种通过增加特征提取网络的表示能力并提高其提取的特征的质量来提高少量图像分类性能的方法。特征提取网络从图像中提取具有高度区分性的特征的能力对于少量学习至关重要。此类功能通常与类别无关,并且包含有关图像常规内容的信息。我们的方法改进了特征提取网络的训练,以使他们能够生成此类特征。我们使用过滤器嫁接以及辅助的自我监督任务和知识提炼程序来训练网络。尤其,过滤器移植使特征提取网络中不重要的(无效)过滤器恢复活力,使其变得有用,从而增加了重要过滤器的数量,可以通过使用自我监督和知识蒸馏技术进一步改进这些过滤器。这种组合方法有助于显着提高模型的几次学习性能。我们使用我们的方法,对几个很少学习的基准数据集(例如mini-ImageNet,tiered-ImageNet,CIFAR-FS和FC100)进行实验。我们还提出了各种消融研究,以验证所提出的方法。我们从经验上表明,我们的方法比其他最新的几次学习方法要好。增加了可以通过使用自我监督和知识蒸馏技术进一步改进的重要过滤器的数量。这种组合方法有助于显着提高模型的几次学习性能。我们使用我们的方法,对几个很少学习的基准数据集(例如mini-ImageNet,tiered-ImageNet,CIFAR-FS和FC100)进行实验。我们还提出了各种消融研究,以验证所提出的方法。我们从经验上表明,我们的方法比其他最新的几次学习方法要好。增加了可以通过使用自我监督和知识蒸馏技术进一步改进的重要过滤器的数量。这种组合方法有助于显着提高模型的几次学习性能。我们使用我们的方法,对几个很少学习的基准数据集(例如mini-ImageNet,tiered-ImageNet,CIFAR-FS和FC100)进行实验。我们还提出了各种消融研究,以验证所提出的方法。我们从经验上表明,我们的方法比其他最新的几次学习方法要好。使用我们的方法分层ImageNet,CIFAR-FS和FC100。我们还提出了各种消融研究,以验证所提出的方法。我们从经验上表明,我们的方法比其他最新的几次学习方法要好。使用我们的方法分层ImageNet,CIFAR-FS和FC100。我们还提出了各种消融研究,以验证所提出的方法。我们从经验上表明,我们的方法比其他最新的几次学习方法要好。

更新日期:2020-08-19
down
wechat
bug