南京大学学报(自然科学), 2022, 58(1): 94-102 doi: 10.13232/j.cnki.jnju.2022.01.010

多示例学习的两阶段实例选择和自适应包映射算法

杨梅1, 曾雯喜1, 方宇1, 闵帆,1,2

1.西南石油大学计算机科学学院,成都,610500

2.西南石油大学人工智能研究院,成都,610500

Two⁃stage instance selection and adaptive bag mapping algorithm for multi⁃instance learning

Yang Mei1, Zeng Wenxi1, Fang Yu1, Min Fan,1,2

1.School of Computer Science, Southwest Petroleum University, Chengdu, 610500, China

2.Institute for Artificial Intelligence, Southwest Petroleum University, Chengdu, 610500, China

通讯作者: E⁃mail:minfan@swpu.edu.cn

收稿日期: 2021-06-28  

基金资助: 国家自然科学基金.  62006200
四川省自然科学基金.  2019YJ0314
四川省青年科学技术创新团队.  2019JDTD0017
西南石油大学研究生全英文课程建设项目.  2020QY04

Received: 2021-06-28  

摘要

多示例学习(Multi⁃Instance Learning,MIL)研究对象的内部结构比单示例学习更加复杂.已有的MIL方法大都基于原始空间中的实例进行包映射,但这些方法通常忽略包的内部结构信息,难以保证所选实例与包在新特征空间中的关联性.提出一种多示例学习的两阶段实例选择和自适应包映射(TAMI)算法.首先,实例选择技术根据包中实例的密度值和关联性,挖掘包内结构特征,选取实例原型;其次,实例选择技术选取具有峰值密度的实例原型作为代表实例;最后,自适应包映射技术通过定义新的映射函数将包转换为单向量进行学习.实验利用显著性检验从统计学的角度验证了TAMI在图像检索、文本分类等基本数据集上的有效性.结果表明,TAMI在图像检索和医学图像数据集上取得了比其他MIL算法更好的效果,并在文本分类数据集上表现良好.

关键词: 自适应映射 ; 关联性 ; 密度 ; 实例选择 ; 多示例学习

Abstract

Compared with single⁃instance learning,multi⁃instance learning (MIL) has a more complex internal structure of its research objects. Most of the existing MIL methods map bags based on instances in the original space. They hardly consider the internal structure information of the bags. It is difficult to guarantee the affinity between the selected instance and the bag in the new feature space. In this paper,we propose a two⁃stage instance selection and adaptive bag mapping algorithm for multi⁃instance learning (TAMI) to handle this issue. Firstly,the first⁃stage instance selection technique excavates structural features and selects instance prototypes based on the density and affinity of the instances in the bag. Secondly,the second⁃stage instance selection technique chooses instance prototypes with the peak density as representatives. Finally,the new adaptive bag mapping technique converts each bag into a single vector. Experiment verifiy the effectiveness of TAMI on the basic dataset from a statistical point of view. The results show that TAMI has achieved better results than other MIL algorithms on image retrieval and medical image datasets,and it performs well on text classification datasets.

Keywords: adaptive mapping ; affinity ; density ; instance selection ; multi⁃instance learning

PDF (938KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

杨梅, 曾雯喜, 方宇, 闵帆. 多示例学习的两阶段实例选择和自适应包映射算法. 南京大学学报(自然科学)[J], 2022, 58(1): 94-102 doi:10.13232/j.cnki.jnju.2022.01.010

Yang Mei, Zeng Wenxi, Fang Yu, Min Fan. Two⁃stage instance selection and adaptive bag mapping algorithm for multi⁃instance learning. Journal of nanjing University[J], 2022, 58(1): 94-102 doi:10.13232/j.cnki.jnju.2022.01.010

多示例学习(Multi⁃Instance Learning,MIL)由Dietterich et al1提出,目的是通过分析已知分子的集合来预测新分子是否可以用来制造某种药物.与单示例学习相比,MIL的输入是一组带有标签的包,而不是带有标签的实例,每一个包是由多个实例组成的集合.对于二分类问题,如果一个包至少包含一个正实例,则该包为正,反之为负.近年来,多示例学习被广泛地应用于多个领域,如图像分类2-4、医学诊断5-6、文本分类7-8和情感分析9-10.

将包从原始空间转换到新特征空间进行学习的分类算法是近年来MIL的研究热点之一.Constructive Clustering⁃Based Ensemble (CCE)11首先将所有包中的实例聚类为d簇;然后将包映射为d维单向量,如果包中实例属于第i个簇,则第i个特征值设置为1,否则设置为0.Multi⁃Instance Learning via Embedded Instance Selection (MILES)12首先构建包含所有训练实例的特征空间,然后通过特征空间中实例与包中实例的相似关系,将包转化为单向量.Image Annotation by Multi⁃Instance Learning with Discriminative Feature Mapping and Selection (MILFM)13首先从正负包中选择原型实例并从负包中选择聚类实例,再利用包与正负实例原型的相关性进行映射.然而,上述算法没有考虑包内部的结构特征,且只能利用固定的空间关系进行映射.

本文提出一种多示例学习的两阶段实例选择和自适应包映射算法(The Two⁃stage Instance

Selection and Adaptive Bag Mapping Algorithm for Multi⁃Instance Learning,TAMI).实例选择技术分两个阶段来选择数据空间的代表实例:第一阶段,利用包中实例的密度值和关联性,分析包内结构特征,选取实例原型;第二阶段,根据实例原型分布的紧密程度,从中选出具有峰值密度14的实例作为代表实例.自适应包映射技术基于包与代表实例的自适应距离关系,通过差值处理将其转化为单向量.实验结果表明,TAMI在图像检索和医学图像数据集上取得了比其他MIL算法更好的效果,并在文本分类数据集上表现良好.

针对MIL分类任务,本文的主要贡献如下:

(1)提出一种高效的两阶段实例选择技术:第一阶段,实例选择技术最大限度地保留了包的内部结构特征,同时大幅度地缩减了代表实例的求解范围;第二阶段,实例选择技术从实例原型中寻找更具有代表性的实例,使得包在新特征空间更具有可区分性.

(2)提出一种自适应的包映射函数.包中实例与代表实例间以最佳相似度进行映射,使新的特征空间能最大程度地保留原始空间的特征.

1 相关工作

根据不同的处理策略,MIL算法主要包括基于统计的算法、基于包的算法、基于核的算法和基于实例的算法.

1.1 基于统计的算法

基于统计的算法使用一个或多个统计变量来对包进行量化,试图捕获包中实例的特征分布.Simple⁃Multi Instance (Simple⁃MI)15统计包中所有实例属性的平均值,即用均值向量来代表该包,具有简单快速的特点.

1.2 基于包的算法

基于包的算法在包空间寻找最具信息量的包节点,然后利用包与包之间的距离关系进行映射.Bag Level Multi⁃Instance Clustering (Bamic)16在训练包上建立聚类模型,将训练包分成k簇;根据k个簇的中心,将每个包转换成单向量.向量的第j个属性值则是该包到第j个簇中心的距离.

1.3 基于核的算法

基于核的算法专注于设计或使用核来进行实例之间的相似性描述,例如高斯核、Fisher核或隔离核.Multi⁃Instance Graph (miGraph)8考虑包内实例的关联性,设计了一种直接计算包与包之间相似性的graph核.Multi⁃Instance Learning Based on the Fisher Vector Representation (miFV)8使用预训练的高斯混合模型获取不同分布的权重、均值和协方差,然后基于这些信息和Fisher核将每个包编码为高维单向量.Isolation Set⁃Kernel (ISK)18从训练实例空间随机取样并构建多个维诺图,使用隔离核为包中的实例分配权重,最终基于包中带权重的实例和维诺图进行映射.

1.4 基于实例的算法

基于实例的算法在实例级进行处理.首先,通过无监督学习、指标分析或其他方法在实例空间中找到关键实例;其次,通过包与关键实例之间的距离,将每个包映射为单个向量.Multi⁃Instance Learning Based on the Vector of Locally Aggregated Descriptors Representation (miVLAD)19算法在整个实例空间中,通过

k⁃Means获得聚类中心,然后使用映射函数将包转化为单向量.单向量的维度与k⁃Means聚类中心数量直接关联,即k值越大,映射向量的维度越高.Discriminative Mapping Approach for Multi⁃Instance Learning (MILDM)20在整个实例空间构建满足关键实例判别标准的映射函数,尽可能保留包在新特征空间中的可区分性,然而算法的时间开销与实例空间的大小呈平方关系.Multi⁃Instance with Key Instance shift (MIKI)21首先训练一个加权的多类模型以选择具有高正性的实例作为原型实例,然后将包转换为具有原型实例信息的向量,其次将原型实例的权重合并到转换后的包向量中,以缩小训练/测试分布之间的差距,最后使用新的包向量及其权重来学习.

基于实例的算法在很大程度上保留了实例的信息,因此在特定的数据集上有更好的效果.

2 两阶段实例选择和自适应包映射算法

本算法的主要思想:通过两阶段实例选择技术快速选取代表实例,再采用自适应的映射方法将包转换成单示例.以图像数据集的处理过程为例,如图1所示(图片来源为Corel数据集):第一阶段,计算原始数据包中实例的密度值和关联性,分析其内部结构特征,选出实例原型;第二阶段,从实例原型池中选取出具有峰值密度特点的代表实例;最后,根据包中实例与代表实例的相似性,通过自适应差值处理,实现包映射.

图 1

图 1   TAMI算法的运行实例

Fig.1   Running example of TAMI algorithm


2.1 符号系统

𝒯=X1,,Xi,,Xn表示给定数据集,其中Xi=xi1,,xij,,xini表示一个包,yi-1,+1表示Xi的标签,n表示𝒯中包的个数,ni则表示Xi中实例的数量.MIL的任务就是在标准多示例的假设下,通过对已有的数据进行分析得到一个有效的分类模型,从而实现对未知包的标签预测.

2.2 两阶段实例选择技术

两阶段实例选择技术首先在包内选取实例原型,然后在实例原型池中选出代表实例.

2.2.1 实例原型选择

第一阶段实例选择技术基于包内实例的优先级,选出具有包内部结构特征的实例原型.令pi表示Xi中所有实例的优先级,如式(1)所示:

pi=ρi×si

其中,ρi表示Xi中实例的密度值向量,si表示Xi中实例的关联值向量.具有最高优先级的实例被选作实例原型ti.

(1)为了使实例xij的密度ρijρi能反映邻域范围内的实例聚集程度,ρij的计算如式(2)所示:

ρij=kjniedjk/dc2

其中,djk表示任意两个实例之间的距离,dc=

μ×maxdjk表示实例xij邻域范围的半径,μ

0,1表示给定阈值.如图2所示,在以dc为半径的邻域范围内分析每个实例的密度值:实例3周围聚集了更多的实例,因此具有较大的密度值;处于边缘的实例6周围存在较少的实例,因此密度值较小.这说明邻域范围内的实例聚集程度越高,密度值越大.

图 2

图 2   实例密度图

Fig.2   Diagram of instance density


(2)MIL使用多个实例来表示对象,实例之间则存在一种特殊的内在结构.本文使用包中实例的关联性来分析包的内部结构特征.实例xij与实例xik之间的关联性如式(3)所示:

sijk=1,    djkdave0,        else

其中,dave是包内实例的平均距离.实例xij的关联值sij则用式(4)求出,表示与该实例相连边的数量.如图3所示,与实例4具有关联性的实例有1,5,6,7,则其关联值为4;实例2的关联值则为2.关联值越高,则代表该实例与其他实例之间的关联性越强,就更能代表整个包的重要信息.

sij=1knisijk

图 3

图 3   实例关联图

Fig.3   Diagram of instance affinity


最后,利用式(1)得到Xi中每个实例的优先级,选取优先级最高的实例作为实例原型ti,则T=t1,,ti,,tn表示𝒯中所有实例原型的集合.

2.2.2 代表实例选择

第二阶段实例选择技术从T中选择一组峰值密度较大的实例原型作为代表实例,并构建代表实例池R.

对于任意的ti,需要计算其两个指标:ti的密度值δi以及ti与更高密度点的最近距离βi.ti的密度δi通过式(2)计算获得,区别在于计算区间从包内迁移至T中.βi则是通过计算ti与其他密度更高点之间的最小距离来测量:

βi=minj:δj>δidij

特别地,密度最大的实例原型的βi=maxjdij.

基于实例原型的δ值和β值,可以将其分为三种不同的类型,如图4所示:(1)峰值点:两个红色实例分布在图的右上角,具有非常高的δ值和β值,表明在两个点的较大区域内不存在密度更高的实例原型,因此这两个点适合被选取作为代表实例;(2)正常点:处于右下角的实例的δ值虽然高,但是β值却很小,表明它们附近存在密度更高的点;(3)离群点:分布在左上角的实例点的δ值非常低,表明它们是离群点.

图4

图4   决策图

Fig.4   Decision diagram


因此,本文从T中选取前nrλi值最大的实例原型,构成代表实例池R=r1,,ri,,rnr,其中,λi=δi×βi.

2.3 自适应包映射技术

自适应包映射技术根据包中实例与代表实例间的最佳相似度进行映射,既突出了包的内部结构特征,也保证了包在新特征空间中的可区分性.

对于给定的包Xi𝒯,其映射过程如图5所示:(1)计算包中实例xij与代表实例池R的距离向量dj=dj1,,djm,,djnr,其中,djmdj表示xijrmR的欧式距离;(2)计算xij的自适应目标索引τj=argmin1mnrdjm;(3)计算xij的自适应映射向量vij

vij=xij-rτj

图5

图5   自适应包映射技术示意图

Fig.5   Schematic diagram of adaptive bag mapping technique


(4)将所有vij进行叠加得到Xi的映射向量Vi

Vi=j=1nivij

进一步,对于Vi的每一个元素Vil通过VilsignVilVil进行处理,再由ViVi/Vi2对映射向量进行二范归一化22.最后利用Vi,yi训练单示例分类器.

2.4 算法描述

TAMI算法分为两个阶段,如Algorithm 1所示:算法输入是训练集Btr(其中ntr表示Btr中包的个数)和代表实例的数量nr;输出是训练好的单示例分类器和学习到的代表实例池R.在训练阶段,第1~6行为训练集Btr中的每一个包Xi选择出实例原型,获得T.第7~12行通过计算T中实例的优先级,选出一组具有峰值密度的实例构成代表实例池R.第13~18行使用R训练单示例分类器.在测试阶段,第19~20行将测试集Bte中的每一个包Xi'通过自适应包映射技术转换成新特征向量Vi',然后预测出包的标签Vi'.

Algorithm 1 The TAMI algorithm

Input:Training data Btr=Xi,yii=1ntr;the number of representative instances nr

Output:The a single⁃instance classifier ;the

representative instance pool R;

Train:

∥Step 1.Find instance prototypes T based on the

density and affinity of instances in the bag.

1.T=

2.for i1..ntr do

3. Compute pi=pi1,,pij,,pini according to Eq.(1);

4. m=argmax1jnipij};

5. TTti,where ti=xim;

6.end for

∥Step 2. Find representative instance pool R based on the peak density of T.

7.R=;

8.λ=δ×β=λ1,,λi,,λntr,where δ and β are computed according to Eqs.(2) and (5);

9.for j1..nr do

10. m=argmaxi1..ntr\mλi,where λiλ;

11. RRrj,where rj=tm;

12.end for

∥Step 3. Map each bag into a single vector.

13.for i1..ntr do

14. Compute Vi according to Eq.(7);

15. VilsignVilVil,where Vil represents the l⁃th attribute of Vi;

16. ViVi/Vi2;

17.end for

18.Train a single⁃instance classifier with

vector⁃label pairs Vi,yi;

Test:

19.For each test bag Xi'Bte,perform (13)~(17) steps to get the new vector Vi';

20.Output the prediction Vi'.

3 实验与结果

为了验证TAMI算法的分类性能,选取三个领域的MIL数据集进行实验,包括图像检索、医学图像以及文本分类,并与Simple⁃MI,Bamic,miVLAD,miFV和MILDM四类MIL算法进行实验对比.表1给出了以上数据集的关键信息,采用支持向量机(Support Vector

表 1   实验使用的数据集信息

Table 1  Detailed characteristics of datasets used in experiments

NameBagInstanceAttributeClass
Elephant20013912302
Fox20013202302
Tiger20012202302
Messidor1200123526872
Ucsb_breast5820027082
Newsgroups20008013720020

新窗口打开| 下载CSV


Machine,SVM)作为单示例级别分类器.

实验的性能度量建立在混淆矩阵的基础上.对于二分类问题,可将样本分为真正例(TP)、假正例(FP)、真反例(TN)和假反例(FN)四种情形.最终选取Accuracy作为性能度量指标,如式(8)所示:

Accuracy=TP+TNTP+TN+FP+FN

3.1 数据集简介

Elephant,Fox和Tiger7是图像检索中常用的数据集,其任务是确定图像中是否包含感兴趣的对象.每类数据集包含200张图像,每个图像看作一个包,图像的不同区域则视为包中的实例.如果包中包含至少一个该类别的实例,则视为正包,反之为负包.

Messidor23和Ucsb_breast24属于医学图像数据集.Messidor数据集来自654位糖尿病患者和546位健康患者的1200个眼底图像.原始数据的每个图像都重新缩放为700×700像素,并分成135×135像素的块.Ucsb_breast数据集由58位TMA图像摘录(896×768像素)组成,摘录自32位良性和26位恶性乳腺癌患者.

Newsgroups数据集属于文本分类问题8,包含20个来自不同新闻帖子的子数据集,每个子数据集都包含50个正包和50个负包.每个正包中包含目标类别中3%的帖子以及从其他类别中随机抽取的97%的帖子.每个负包则只包含从其他类别中随机均匀抽取的帖子,不含目标类别的任何数据.

3.2 实验结果

实验通过10次10折交叉验证来比较TAMI与其他算法的性能.表2给出了在图像检索和医学图像任务上的实验结果,表3给出了在文本分类任务上的实验结果,表中加粗的数字表示在当前数据集上得到的最好结果.TAMI在这些数据集上都取得了不错的分类性能,尤其在三个图像检索和一个医学图像数据集上显著优于其他算法;文本数据集的分类结果显示TAMI在八个子数据集上取得最优,且在余下子数据集上的分类性能与其他MIL算法相近.

表2   图像检索和医学图像数据集上不同算法的平均准确率

Table 2  The average accuracy of different algorithms on image retrieval and medical image datasets

DatasetsSimple⁃MIBamicmiFVmiVLADMILDMTAMI
Elephant82.4±0.9082.9±1.5784.3±1.0884.7±1.1884.2±1.2589.6±1.30
Fox54.0±1.5059.8±2.0860.4±1.2063.3±2.2162.9±2.3064.1±2.10
Tiger80.5±0.8880.6±2.2376.5±1.2184.9±0.5280.1±2.0986.0±1.04
Messidor61.5±0.4862.7±0.6969.4±0.5567.9±0.2457.97±1.7180.7±0.79
Ucsb_breast76.1±1.7976.2±3.1687.0±2.5781.2±2.5674.80±4.2483.6±2.65

新窗口打开| 下载CSV


表3   文本分类数据集上不同算法的平均准确率

Table 3  The average accuracy of different algorithms on text classification datasets

DatasetsSimple⁃MIBamicmiFVmiVLADMILDMTAMI
alt.atheism59.6±0.8067.3±1.2782.4±0.8085.1±2.1755.5±3.0388.2±0.87
comp.graphics52.1±1.3080.6±0.6680.4±1.0279.2±1.6651.1±1.8582.9±0.94
comp.os.ms50.2±1.2559.5±1.0273.5±1.6968.6±2.2048.3±3.9571.4±1.28
comp.sys.ibm55.3±1.1974.6±0.6678.8±1.8980.7±1.6250.4±1.7879.6±1.02
comp.sys.mac52.1±2.0275.6±0.6678.1±1.2278.2±2.5644.3±2.5879.8±0.87
comp.window.x61.2±1.0874.1±0.8384.8±1.6681.4±1.5055.0±2.9484.3±1.49
misc.forsale54.7±2.4963.5±1.7573.7±1.8572.1±2.5947.0±4.6468.9±3.18
rec.autos54.4±0.9272.7±0.6478.8±1.1781.3±2.5746.4±4.7478.2±1.66
rec.motorcycles54.4±1.1152.0±3.7986.6±1.2881.4±1.2057.3±4.2783.4±1.69
rec.sport.baseball56.5±1.0278.1±0.5484.7±1.1982.8±1.3351.1±1.6680.0±1.00
rec.sport.hockey61.2±0.7582.4±0.8087.4±1.5089.8±1.4045.7±3.0690.2±1.72
sci.crypt60.7±0.7868.0±1.7376.1±1.3782.2±2.3251.2±5.4583.2±2.18
sci.electronics53.0±0.0092.0±0.0092.7±0.7892.3±0.7852.6±1.2693.9±0.70
sci.med59.9±1.2279.6±0.8084.3±1.4282.6±2.5450.5±2.6883.4±1.50
sci.religion60.6±1.5675.8±0.9880.5±1.1279.6±1.3652.7±4.1479.2±2.36
sci.space52.8±0.4077.4±0.4987.3±1.0085.0±1.1049.3±3.7186.9±2.07
talk.politics.guns52.8±0.4075.3±1.7377.9±1.1481.4±1.2848.1±2.3378.3±2.15
talk.politics.mideast64.7±0.9074.3±1.1079.1±1.2283.9±1.0446.0±3.2782.5±0.67
talk.politics.misc65.5±2.5458.4±2.7373.7±1.7976.5±2.2957.4±3.3482.1±1.76
talk.religion.misc59.5±0.6768.0±0.7775.3±1.7379.6±2.2051.5±2.8472.8±3.03

新窗口打开| 下载CSV


用统计显著性检验25进一步分析TAMI算法的性能.采用Friedman检验比较各个算法准确率的平均排名.表4显示TAMI算法与其他五个算法的等级排名,等级越高取值越低.根据平均序值能够得到六个算法的分类性能排名,从高到低依次为TAMI,miVLAD,miFV,Bamic,Simple⁃MI,MILDM.图6直观地展现了各个算法之间的性能差异,实心点表示各算法的平均序值,以实心点为中心的水平线段表示临界值范围的大小.结果显示,TAMI算法与MILDM和Simple⁃MI的水平线段没有交叠区域,因此TAMI算法显著优于MILDM和Simple⁃MI;与Bamic有很少的交叠区域,因此TAMI优于算法Bamic;与miVLAD和miFV有部分交叠区域,因此它们存在一定差异.

表4   六种算法在三类数据集上的平均排名

Table 4  The mean ranking of the six algorithms in the three types of data sets

DatasetsSimple⁃MIBamicmiFVmiVLADMILDMTAMI
平均等级5.14.132.642.385.31.45
图像检索5.34.34.3241
医学图像541.5361.5
文本分类4.954.052.12.155.91.85

新窗口打开| 下载CSV


图6

图6   六种算法的Friedman检验图

Fig.6   Friedman test chart of six algorithms


4 总结与展望

本文提出一种多示例学习的两阶段实例选择和自适应包映射(TAMI)算法.该算法首先计算包内实例的密度值和关联性,选出具有包内部结构信息的实例原型;然后基于实例原型的峰值密度特点,选择一定数目的代表实例;最后根据包与代表实例的相似关系来构建自适应背景,从而实现自适应包映射. 该算法的优势在于:(1)代表实例的选取无需迭代优化,计算速度快;(2)通过考虑包中实例的密度值和相关性,可以有效保留包的内部结构特征;(3)代表实例的数目可以自由选择,使用灵活.实验结果表明,TAMI在图像检索和医学图像数据集上取得了比其他MIL算法更好的效果,并在文本分类数据集上的表现良好.

通过实验也发现:(1)TAMI算法没有在所有数据集上都表现最优,例如在文本数据集上取得了和miFV相近的结果;(2)实例的关联性计算仅考虑了实例之间的距离关系.这些都是本文进一步研究的方向,将在未来的工作中尝试解决.

参考文献

Dietterich T GLathrop R HLozano⁃Pérez T.

Solving the multiple instance problem with axis⁃parallel rectangles

Artificial Intelligence,199789(1-2):31-71.

[本文引用: 1]

Maron ORatan A L.

Multiple⁃instance learning for natural scene classification

Proceedings of the 15th International Conference on Machine Learning. San Francisco,CA,USAIEEE1998341-349.

[本文引用: 1]

Song X FJiao L CYang S Yet al.

Sparse coding and classifier ensemble based multi⁃instance learning for image categorization

Signal Processing,201393(1):1-11.

Wei X SYe H JMu Xet al.

Multi⁃instance learning with emerging novel class

IEEE Transactions on Knowledge and Data Engineering,201933(5):2109-2120.

[本文引用: 1]

Zhu LZhao BGao Y.

Multi⁃class multi⁃instance learning for lung cancer image classification based on bag feature selection

2008 5th International Conference on Fuzzy Systems and Knowledge Discovery. Ji'nan,ChinaIEEE2008487-492.

[本文引用: 1]

Wang Z YPoon JSun S Det al.

Attention⁃based multi⁃instance neural network for medical diagnosis from incomplete and low quality data

2019 International Joint Conference on Neural Networks. Budapest,HungaryIEEE20191-8.

[本文引用: 1]

Andrews STsochantaridis IHofmann T.

Support vector machines for multiple⁃instance learning

Proceedings of the 15th International Conference on Neural Information Processing Systems. Vancouver,CanadaMIT Press2002561-568.

[本文引用: 2]

Zhou Z HSun Y YLi Y F.

Multi⁃instance learning by treating instances as non⁃I.I.D. samples

Proceedings of the 26th Annual International Conference on Machine Learning. New York,NY,USAACM20091249-1256.

[本文引用: 4]

Angelidis SLapata M.

Multiple instance learning networks for fine⁃grained sentiment analysis

Transactions of the Association for Computational Linguistics,2018(6):17-31.

[本文引用: 1]

Zhang DHe J RLawrence R.

MI2LS:Multi⁃instance learning from multiple informationsources

Proceedings of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York,NY,USAACM2013149-157.

[本文引用: 1]

Zhou Z HZhang M L.

Solving multi⁃instance problems with classifier ensemble based on constructive clustering

Knowledge and Information Systems,200711(2):155-170.

[本文引用: 1]

Chen Y XBi J BWang J Z.

MILES:Multiple⁃instance learning via embedded instance selection

IEEE Transactions on Pattern Analysis and Machine Intelligence,200628(12):1931-1947.

[本文引用: 1]

Hong CWang MGao Yet al.

Image annotation by multiple⁃instance learning with discriminative feature mapping and selection

IEEE Transactions on Cybernetics,201444(5):669-680.

[本文引用: 1]

Rodriguez ALaio A.

Clustering by fast search and find of density peaks

Science,2014344(6191):1492-1496.

[本文引用: 1]

Amores J.

Multiple instance classification:Review,taxonomy and comparative study

Artificial Intelligence,2013(201):81-105.

[本文引用: 1]

Zhang M lZhou Z H.

Multi⁃instance clustering with applications to multi⁃instance prediction

Applied Intelligence,200931(1):47-68.

[本文引用: 1]

Wei X SWu J XZhou Z H.

Scalable multi⁃instance learning

2014 IEEE International Conference on Data Mining. Shenzhen,ChinaIEEE20141037-1042.

Xu B CTing K MZhou Z H.

Isolation set⁃kernel and its application to multi⁃instance learning

Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York,NY,USAACM2019941-949.

[本文引用: 1]

Wei X SWu X JZhou Z H.

Scalable algorithms for multi⁃instance learning

IEEE Transactions on Neural Networks and Learning Systems,201728(4):975-987.

[本文引用: 1]

Wu JPan S RZhu X Qet al.

Multi⁃instance learning with discriminative bag mapping

IEEE Transactions on Knowledge and Data Engineering,201830(6):1065-1080.

[本文引用: 1]

Zhang Y LZhou Z H.

Multi⁃instance learning with key instance shift

Proceedings of the 26th International Joint Conference on Artificial Intelligence Main Track. Melbourne,AustraliaIJCAI20173441-3447.

[本文引用: 1]

Sánchez JPerronnin FMensink Tet al.

Image classification with the fisher vector:Theory and practice

International Journal of Computer Vision,2013105(3):222-245.

[本文引用: 1]

Decencière EZhang X WCazuguel Get al.

Feedback on a publicly distributed image database:The messidor database

Image Analysis & Stereology,201433(3):231.

[本文引用: 1]

Kandemir MHamprecht F A.

Computer⁃aided diagnosis from weak supervision:A benchmarking study

Computerized Medical Imaging and Graphics,2015(42):44-50.

[本文引用: 1]

Demšar J.

Statistical comparisons of classifiers over multiple data sets

The Journal of Machine Learning Research,2006(7):1-30.

[本文引用: 1]

/