The most straightforward way to solve the problem of few⁃shot image classification is data augmentation. Aiming at the problem that most of the data augmentation methods suitable for few⁃shot image classification are overly sophisticated and need a long inference time. We propose a tensor feature generator,which augments few⁃shot images in the features space by generating new tensor features. Based on the tensor feature generator,a rapid classification method for few⁃shot learning,Tensor Feature⁃based Faster Classification Network (TFFCN) is proposed. The network structure is simple,the tensor features of the image are extracted by using the residual network,and data augmentation of few⁃shot image with tensor feature generator,so as to train a satisfactory classifier and classify the query set images,and solve the problem of long inference time. We use public datasets miniImageNet,CUB and CIFAR⁃FS to verify the effectiveness of the proposed model by comparing experimental results on classification performance and inference time. Experimental results show that the classification performance of the TFFCN is better than popular data augmentation methods for few⁃shot image classification,and the inference time is greatly reduced compared to the model before the improvement. When the backbone networks are ResNet18 and ResNet12,the inference time is almost reduced by up to 49% and 24% with the increase of the number of generated tensor features,respectively,and the TFFCN can complete the task of few⁃shot image classification more quickly.
Keywords:few⁃shot image classification
;
data augmentation
;
tensor feature generator
;
tensor features
;
inference time
Zhang Yansha, Feng Fujian, Wang Jie, Pan Feng, Tan Mian, Zhang Zaijun, Wang Lin. Tensor feature⁃based faster classification network for few⁃shot learning. Journal of nanjing University[J], 2022, 58(6): 1059-1069 doi:10.13232/j.cnki.jnju.2022.06.014
小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间).
适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间.
张量特征生成器不再将原型张量特征转化为向量特征,而是直接对原型张量特征进行卷积后加入服从标准正态分布的张量噪声,利用双线性插值、卷积和激活函数等操作得到想要的张量特征.这大大简化了模型规模,减少了模型的参数量和计算量,使模型更简单,加快了模型的推理速度,能有效解决模型推理时间长的问题,并且它生成的张量特征使下游的分类任务性能只有较小的损失.使用没有经过全局平均池化(Global Average Pooling,GAP)的张量特征训练张量特征生成器,损失函数使用均方误差(Mean Square Error,MSE)[21-22],如式(2)所示:
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
Wandering recognition method based on joint trajectory features
1
2021
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
Generative adversarial residual pairwise networks for one shot learning
3
2017
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... 新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
Data augmentation generative adversarial networks
1
2018
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
MetaGAN:An adversarial approach to few?shot learning
1
2018
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
Wasserstein GAN?based small?sample augmentation for new?generation artificial intelligence:A case study of cancer?staging data in biology
1
2019
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
Image deformation meta?networks for one?shot learning
3
2019
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... [9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... Comparison of few⁃shot image classification algorithmsTable 1
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
Low?shot visual recognition by shrinking and hallucinating features
0
2017
Adversarial feature hallucination networks for few?shot learning
3
2020
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
... Comparison of few⁃shot image classification algorithmsTable 1
Feature hallucination via maximum a posteriori for few?shot learning
3
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... [13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
Few?shot learning via feature hallucination with variational inference
2
2021
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... Comparison of few⁃shot image classification algorithmsTable 1
Tensor feature hallucination for few?shot learning
3
... 小样本图像分类的限制在于样本量少或有监督的样本量少,基于小样本学习得到的深度神经网络分类模型容易出现过拟合的问题[4],解决它最直接的方法是数据增强.目前已有大量学者从数据增强的角度去研究小样本图像分类问题,主要通过提出一个生成模型为小样本数据生成合成数据[5-9]或幻觉[10-14]新的样本数据,再利用生成的样本数据去增强原有的小样本数据,从而训练得到一个满意的分类器.例如,文献[5-8,12]运用生成对抗网络(Generative Adversarial Network,GAN)作为生成器为小样本数据生成新的样本数据,虽然生成的样本数据比较真实,但Wu et al[13]认为基于GAN合成样本数据的方法过于复杂,因为GAN方法难以训练.虽然Chen et al[9]和Wu et al[13]没有运用GAN来得到生成数据和幻觉数据,但两者都需要对数据进行复杂的处理,前者需要输入一对相似的探针图像(probe image)和图库图像(gallery image),后者为了使数据服从高斯分布,需要对数据进行能量变换(power transformation).Lazarou et al[15]提出的张量特征幻觉器(Tensor Feature Hallucination,TFH)虽然简单,但是该模型在生成张量特征的过程中经过了张量特征变为向量特征再生成张量特征的过程,增加了模型的规模和完成小样本图像分类测试任务的时间(推理时间). ...
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
... Comparison of few⁃shot image classification algorithmsTable 1
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
... Comparison of few⁃shot image classification algorithmsTable 1
Multi?Level semantic feature augmentation for one?shot learning
2
2019
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
... Comparison of few⁃shot image classification algorithmsTable 1
Improving augmentation efficiency for few?shot learning
2
2022
... 适用于小样本图像分类的数据增强方法大都借助辅助数据或辅助信息对原有的小样本数据集进行数据扩充或特征增强,这对小样本图像分类器的准确性起到至关重要的作用.目前,从数据增强的角度出发解决小样本图像分类问题已引起国内外学者的关注,GAN (Generative Adversarial Networks)能生成与真实样本分布相同的模拟样本,作为生成器被广泛应用于小样本图像分类.Mehrotra and Dukkipati[5]利用GAN生成器为输入的支持集样本生成假的查询样本,提出一种用于单样本学习的生成对抗残差成对网络.Antoniou et al[6]也在GAN网络的基础上为小样本学习问题提出数据增强生成对抗网络(Data Augmentation GAN,DAGAN).Zhang et al[7]提出Meta⁃GAN,进一步为特定任务生成虚假样本以补充训练样本,在Meta⁃GAN中,GAN和少数分类网络的组合训练使生成的示例更适合于小样本学习任务.Zhang et al[12]提出基于条件Wasserstein生成对抗网络(cWGAN)的对抗性特征幻觉网络(Adversarial Feature Hallucination Network,AFHN),并运用两个新颖的正则化器对模型进行限制.但这些方法都比较复杂,训练时需要消耗较多的资源和较长的时间,并且由于GAN网络容易出现模型崩塌,进一步加大了这些模型的训练难度.对此,Wu et al[13]假设基集中每个类别都服从高斯分布,使用最大后验概率(Maximum A Posteriori,MAP)来估计即使只有一个例子的新类别的分布,提出一种简单有效的方法来生成样本较少的新类别模型.不同于前面的工作,蔡奇和李凡长[18]在特征的层面上对图像进行增强,提出一种类特征增强模块(Class Feature Augmentation,CFA),将其与原型网络结合得到类特征增强原型网络(CFA⁃PN).Chen et al[19]利用语义来直接合成实例特征.Cho and Kim[20]提出一种自动选择最优增强策略的方法(Efficient Data Augmentation,EDANet),从候选的数据增强策略中自动选择最优的组合对数据进行增强.Lazarou et al[15]提出一个简单的张量特征幻觉器模型TFH,通过利用张量特征而不是向量特征来提升小样本分类性能,但在该模型的张量特征生成过程中,得到原型张量特征后,通过卷积、全连接层等操作将其变为向量特征,再结合随机产生的噪声向量经过相应的操作得到需要的张量特征.从张量特征过渡到向量特征再转变为张量特征这一过程,使模型复杂繁琐,增加了模型的规模和推理时间. ...
... Comparison of few⁃shot image classification algorithmsTable 1