南京大学学报(自然科学), 2021, 57(1): 21-28 doi: 10.13232/j.cnki.jnju.2021.01.003

基于深度主动学习的甲状腺癌病理图像分类方法

张萌1, 韩冰,1, 王哲2, 尤富生3, 李浩然1

1.西安电子科技大学电子工程学院, 西安, 710071

2.空军军医大学基础医学院病理学教研室, 西安, 710071

3.空军军医大学生物医学工程系, 西安, 710071

Papillary thyroid carcinoma pathological image classification based on deep active learning

Zhang Meng1, Han Bing,1, Wang Zhe2, You Fusheng3, Li Haoran1

1.School of Electronic Engineering,Xidian University,Xi'an,710071,China

2.Teaching and Research Section of Pathology,School of Basic Medicine,Air Force Medical University,Xi'an,710071,China

3.School of Biomedical Engineering,Air Force Medical University,Xi'an,710071,China

通讯作者: E⁃mail:bhan@xidian.edu.cn

收稿日期: 2020-09-19   网络出版日期: 2021-01-21

基金资助: 国家自然科学基金.  61572384

Received: 2020-09-19   Online: 2021-01-21

摘要

甲状腺癌是内分泌系统最常见的恶性肿瘤,甲状腺病理图像对于甲状腺癌的分级、预后和后续治疗有重要的指导作用.近年来,深度学习在病理图像分类分级中表现出色,然而,为了获得良好的分类性能,这些方法往往需要大量的标注数据.众所周知,医学图像的手动注释非常繁琐、耗时,并且需要领域知识的指导.为了降低标注成本,提出一种将卷积神经网络(Convolutional Neural Networks,CNN)和主动学习相结合的分类方法,无须标记所有数据,仅选择少量样本进行标注.此方法利用CNN提取病理图像的特征,进而使用该特征计算未标注样本的不确定性和相似性,选择“有价值”的样本;然后由病理学家对选定的样本进行标注,并不断微调网络以增强模型的分类性能.在甲状腺病理图像上的实验结果表明,该方法能够在不牺牲最终分类准确率的情况下降低标记成本.

关键词: 甲状腺乳头状癌病理图像 ; 深度学习 ; 主动学习 ; 图像分类 ; 哈希码

Abstract

Thyroid cancer is the most common form of endocrine malignancy and the informative pathological images are critical for thyroid cancer risk stratification,prognosis and treatment guidance. Recent advances in deep learning have achieved promising results on pathology image classification benchmarks. However,to achieve an acceptable classification performance,most of the existing methods require a large number of labeled images. The manual annotation for the medical image is known to be tedious,time⁃consuming,and requires guidance from domain knowledge. To reduce the labeling cost,this paper proposes a classification method which integrates the convolutional neural network (CNN) and active learning to actively select a few samples for annotation. Specifically,we utilize CNN to extract feature of the pathological image. And then the deep feature is employed to estimate the uncertainty and representativeness of pathological image for “valuable” sample selection. Finally,the selected samples are annotated by pathologists and continuously fine⁃tune CNN to enhance the classification performance. The experimental results on thyroid pathological images demonstrate that the proposed method can reduce the labeling cost without sacrificing the accuracy of the classification system.

Keywords: papillary thyroid carcinoma pathological image ; deep learning ; active learning ; image classification ; Hash code

PDF (1327KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

张萌, 韩冰, 王哲, 尤富生, 李浩然. 基于深度主动学习的甲状腺癌病理图像分类方法. 南京大学学报(自然科学)[J], 2021, 57(1): 21-28 doi:10.13232/j.cnki.jnju.2021.01.003

Zhang Meng, Han Bing, Wang Zhe, You Fusheng, Li Haoran. Papillary thyroid carcinoma pathological image classification based on deep active learning. Journal of nanjing University[J], 2021, 57(1): 21-28 doi:10.13232/j.cnki.jnju.2021.01.003

甲状腺癌是内分泌系统最常见的恶性肿瘤,也是全球发病率增长最快的恶性肿瘤1.在众多的甲状腺癌检查方法中2,病理穿刺活检是当前敏感性和特异性最高的方法3.在甲状腺癌的四种主要病理类型中,甲状腺乳头状癌约占甲状腺癌的85%以上,虽然甲状腺乳头状癌预后非常好,十年的存活率高达90%左右,但此类癌症的淋巴转移率高达40%~50%4,因此甲状腺乳头状癌的早期确诊并制订合适的治疗方案对防止病情恶化、挽救病人的生命具有重要意义.

卷积神经网络(Convolutional Neural Networks,CNN)在生物医学图像分析中被广泛应用,然而大部分基于CNN的图像分析方法是以大量带标注的数据集为基础的.对生物医学图像进行标注不仅繁琐、耗时,而且需要领域内的专业知识指导,这些专业知识需要系统学习,难以迅速掌握,所以很难获取大量带标签的数据.然而,目前已经有公开的其他类型疾病的病理图像数据集,我们可以充分利用现有带标签的其他数据集,辅助挑选有价值的样本进行标注,减少标注代价.

近年来,由于数字数据的爆炸性增长,存储和检索效率极高的哈希编码在各种计算机视觉任务中已被广泛应用.Venkateswara et al5使用深度神经网络学习样本的代表性哈希码来解决域适配问题,在无监督域自适应方面取得良好的效果.本文以该深度哈希网络为基础,结合主动学习算法,提出一种基于深度主动学习的甲状腺乳头状癌病理图像分类方法,将深度学习与主动学习集成到同一框架中.该方法通过CNN来提取图像特征,并利用不确定性信息与代表性信息对未标注数据集中“有价值的”样本进行注释.通过在每一轮迭代中加入新注释的样本对模型进行微调以增强模型的分类性能.在甲状腺癌病理图像数据集上的实验结果表明,和原始的CNN网络相比,本文提出的基于深度主动学习的甲状腺乳头状癌病理图像分类方法将标注样本数量降低了70%左右.

本文的主要贡献如下:

(1)提出一个新的深度主动学习分类框架对甲状腺癌病理切片进行分类,该方法将深度学习与主动学习集成到一个框架中;

(2)设计了一种样本不确定性评估方法评估未标记样本的不确定性;

(3)设计了一种样本间相似性评估方法,从同一患者样本间相似性以及不同患者的样本间相似性两个角度对样本相似性进行评估;

(4)在甲状腺癌数据库上的实验表明该方法能够有效降低标注代价,仅需标注少量样本便能取得良好的分类效果.

1 相关工作

目前,解决标注问题的方法可以分为两大类:无监督方法和有监督方法.无监督学习能够根据未知类别的训练样本解决分类等问题,然而无监督学习的效果远远比不上监督学习,尤其对于医学图像,准确的分类是十分重要的,关乎后续治疗方案的制订.主动学习(Active Learining,AL)可以很好地平衡这两个问题,在减少标注代价的同时能保证分类准确率,因此众多研究者对主动学习进行了深入研究.在主动学习的早期研究中,主要依赖手工特征进行信息查询与样本选择.Abe and Mamitsuka6提出一种查询学习策略,结合委员会查询和装袋查询学习策略,在实际应用中获得了较好的效果.Ebert et al7分析不同的采样标准并提出一种基于强化学习的新型反馈驱动的主动学习框架,能够根据经验在学习过程中调整采样策略.Huang et al8提出一种基于主动学习的最小⁃最大观点,为结合样本的信息性和代表性提供了一种系统的方法.Tang and Huang9提出一种自定步长的主动学习方法:一方面考虑了信息量和代表性,选取的实例对模型的改进具有较高的潜在价值;另一方面,利用样本的易用性,使模型能够充分利用样本潜在价值.

近年来,由于深度学习的发展,主动学习与深度学习的研究10-14逐渐受到越来越多的重视.Wang and Shang10可能是第一次将主动学习与深度学习相结合,提出基于堆叠受限玻尔兹曼机和堆叠自动编码器的主动标记方法.Li11也将类似的方法应用于高光谱图像分类.Stark et al12利用主动学习提高基于CNNs的验证码识别性能,Al Rahhal et al13利用深度学习和主动学习进行心电图分类.Zhou et al14利用同一样本的不同裁剪图像块的类别及概率的选择样本进行标注,并在三个不同的生物医学图像数据集上获得了良好的效果,然而由于病理图像不同的裁剪的图像往往属于不同的类别,因此该方法不适用于甲状腺癌病理图像分类.Yang et al15将全卷积神经网络与主动学习进行结合,通过对最有效的注释区域进行注释来显著减少注释工作量,在2015年MICCAI腺体分割数据集上获得了较好的分割结果.

虽然上述方法在解决样本标注问题上取得了很大进展,但这些方法往往只关注低预测置信度的不确定样本,未能综合考虑样本的不确定性与代表性,同时也没有充分利用CNN训练过程中得到的特征以及现有的带标签数据库信息.为了克服上述缺陷,结合甲状腺癌病理图像特点,本文提出一种基于深度主动学习的甲状腺乳头状癌病理图像分类方法,充分利用现有的带标签的其他病理切片数据集,能够综合多种信息,同时考虑样本的不确定性与样本的重复性,通过有限数量的标记训练实例实现最优的分类效果.

2 基于深度主动学习的甲状腺癌病理图像分类方法

本文提出的方法主要包括三个部分:(1)深度CNN框架;(2)样本不确定性评估与相似性评估;(3)样本选择与模型更新.将包含nu个实例的未标记甲状腺癌数据集表示为U=xjuj=1nu.首先根据未标记样本的不确定性信息和代表性信息从数据集U中选出b个样本,组成集合UB=xjuj=1b,并对UB进行标记;然后用这些已标记的样本微调分类模型,改善模型的分类效果.

2.1 深度CNN框架

本文的深度CNN框架包括两个模块,如图1所示.绿色虚线框内模块用于计算无标签样本的信息熵以及模型参数更新,红色虚线框内模块为特征哈希码提取模块,用于学习辅助数据集中的样本和甲状腺数据集中样本的深度哈希码.选用包含na个带标签的乳腺癌病理图像数据集16A=xia,yiai=1na作为辅助数据,对应的标签为yiY:=1,,C.

图1

图1   分类方法整体框架图

Fig. 1   The overall framework of the proposed classification method


在特征哈希码提取模块中,使用VGG⁃f网络作为特征提取网络,该网络包括五个卷积层、三个全连接层.通过引入哈希编码层将网络学习到的特征转化为二进制哈希码hx.将VGG⁃f网络输出的样本深度特征记为ux,将二进制哈希码记作hxhx=sgnux.该哈希编码层受到有标签乳腺癌病理图像数据集A的监督哈希损失函数LHA以及无监督熵损失函数LU,A驱动.有监督的哈希损失函数LHA确保乳腺癌病理图像样本生成的特征哈希码的相似性与判别性,也就是说,如果数据集A中的样本xi和样本xj属于同一类别,则它们的哈希码是相似的.无监督熵损失函数LU,A根据数据集U产生的哈希码和数据集A产生的哈希码的相似性对这两个数据集中的样本进行对齐,使每个甲状腺病理图像样本与乳腺癌数据集中某个类别的样本相似并且与其他类别的样本不相似.LHA定义为:

LHA=-sijsijhxiaThxja-lg1+exphxiaThxja

其中,sij0,1表示样本xia和样本xja生成的哈希码的相似性.如果样本xia和样本xja属于同一类,则sij=1,否则sij=0.无监督熵损失函数LU,A表示为:

LU,A=-1nui=1nuj=1Cpjslgpjs

其中,pjs为甲状腺癌数据点xju分配到某一类别s的概率,通过式(3)计算:

pjs=k=1KexpxjuTxkasd=12k=1KexpxjuTxkad

其中,K为类别s的样本数量,s1,,Cxkasxkad为数据集A中类别s和类别d的第k个输出值.通过最小化LU,A,甲状腺癌数据集中的每个样本产生的哈希特征码与某一类乳腺癌病理图像特征哈希码相似,而与其他类不相似.由于本方法是对甲状腺乳头状癌病理图像的二分类,C=2,辅助数据集的类别与甲状腺癌病理切片数据集类别相同.

甲状腺癌病理图像与乳腺癌病理图像虽然都是病理数据,但这两种组织取自人体不同部位,切片制作过程不同,且扫描时使用的扫描仪不同,因此需要减小这两种数据的差异.对于病理图像,细胞核的特征是关键,底层感受野较小的神经元能够学到核的形状及分布等特征,网络的高层特征对分类十分重要,因此对网络的五个卷积层与全连接层进行特征对齐,以减少甲状腺癌病理图像特征与乳腺癌病理图像特征表示之间的域差异.多核最大均值差异(Multi⁃Kernel Maximum Mean Discrepancy,MK⁃MMD)在减少域差异方面表现优异.然而现有的减小域差异的模型大多针对自然图像数据,需要对MK⁃MMD进行改进.多层MK⁃MMD损失函数表示为:

MU,A=oOmUro,Aro

其中,O为五个卷积层与全连接层的索引,UroAro分别代表甲状腺癌病理图像数据和乳腺癌病理图像数据的在第o层的输出.最大平均偏差mUro,Aro表示为:

mUro,Aro=1Uϕxu-1AϕxaK

其中,xuxa分别表示数据集UA的样本,ϕ表示将数据集UA的样本映射到一个再生核希尔伯特空间的核函数.K表示k个单一内核的组合:

Kk:k=m=1kβmkm,m=1kβm=1,βm0,m

网络总的损失函数为:

LQ=αLcls+βLHA+λLU,A+μMU,A

其中,α0,1为自适应参数,Lcls为交叉熵分类损失函数.主动学习过程中样本训练的不同阶段,α取值不同.在计算样本的特征哈希码阶段α=0,在样本信息熵计算阶段α=1.βλμ用于平衡各个损失函数的重要性.

样本信息熵计算模块主要用于计算未标注样本信息熵并更新模型.本文采用VGG⁃f模型来计算样本的信息熵.为了适应甲状腺癌病理图像数据的类别,用一个二输出的全连接层代替原有的最后一个全连接层.

2.2 不确定性评估与相似性评估

在主动学习中,如何选择“有价值”的样本对提升模型的性能十分重要,主动学习的关键在于建立一个判断候选对象“价值量”的标准.本研究通过评估样本的不确定性与样本间的相似性来选择标注样本.较高的不确定性表示样本有较高的信息量,样本间相似性的评估能够辅助去除冗余样本,以更少的标注样本获得最优的分类模型.本方法中样本的不确定性评估准则由两部分组成:特征哈希码的相似性以及样本信息熵.特征哈希码的相似性定义为:在获取甲状腺癌病理图像数据集与乳腺癌病理图像数据集的样本特征哈希码后,甲状腺癌数据集U中的样本xju的特征哈希码应与某一类别乳腺癌病理图像生成的特征哈希码相似,而与其他类别乳腺癌病理图像特征哈希码有较大差异,即样本xju的特征哈希码分配到某一类别的概率接近1,而分配到其他类别的概率接近0.由于甲状腺乳头状癌病理图像分类为二分类,则分配到两个类别的概率pjss=12差值越小,表示样本的不确定性越大.

未标记样本xju的信息熵eju也是不确定性评价的重要指标,信息熵eju表示数据集U中样本xju提供的信息量,因此不确定样本的选择综合考虑了样本熵以及哈希特征码的相似性.选择不确定性样本的指标如下:

Uncerxju=λ1eju-λ2pj1-pj2,st. λ1+λ2=1

其中,eju的计算式为:

eju=-P1lgP1+P2lgP2

P1P2分别为信息熵计算模块中未标记样本xju被分类为正常图像和PTC的概率.

直接进行图像的相似度计算十分复杂,然而通过CNN学到的深度特征能够很好地表征图像,因此可以将图像深度特征向量之间的相似度作为图像间的相似度.取分类网络最后一个卷积层的多个特征图均值作为样本xju的特征向量fju.在本方法中,VGG⁃f网络最后一个卷积层输出特征图的尺寸为6×6×256,即有256个特征图,每个特征图大小为6×6.为了减小计算量,以每个特征图的均值代表该特征图,最终得到一个尺寸为1×256的特征向量.最后,使用余弦相似度来计算特征向量的相似性.即数据集U中的两个样本xjuxiu的相似性simxiu,xju可以表示为:

simxiu,xju=cos_simfiu,fju

2.3 样本选择与模型更新

注释样本的选择综合考虑样本的不确定性以及代表性.首先从未标注甲状腺癌数据集U中选出不确定性较高的样本集合Un,然后评估集合Un中样本间的相似性并去除冗余样本,从Un中选择有代表性的样本集合UB并进行标注.

在待标注样本选择阶段,目标是根据预先设定的标注数量选出同时具有不确定性和代表性的样本集合UB并进行标记,进一步进行模型更新,改善模型的分类效果.首先根据式(8)计算样本的不确定性,选取不确定性得分最高的b个图像组成不确定性样本集合Un;然后从同一患者样本相似性评估以及患者间样本相似性评估两个角度评估样本的相似性,选出代表性样本构成集合UB,如图2所示.

图2

图2   相似性样本评估示意图

Fig. 2   The framework of similarity estimation


在初始阶段,由于不同数据集之间样本哈希码相似性概率的获取不需要样本标签,因此能够直接对特征哈希码提取模块进行训练.对于熵的计算,随机选择少量训练样本进行标注,然后使用标注的数据微调预训练VGG⁃f模型,并使用微调后的模型计算样本信息熵.主动学习是一个不断循环的学习过程,在训练过程中,特征哈希码提取模块和样本信息熵计算模块交替进行训练.当特征哈希码提取模块进行训练时,α设置为0,此时得到样本哈希码的相似性.当样本信息熵计算模块进行训练时,α设置为1,βλμ设置为0,获取样本信息熵.

随着训练的进行,新标记的样本被合并到UB中,并使用UB不断微调CNN网络.一些研究517已经证明,对模型进行微调和使用标注样本从头开始训练模型相比,可以获得更好的性能.因此,在我们的实验中,当新标注的样本合并到数据集UB时,使用新标记的数据对CNN进行微调,以不断更新模型参数,改善模型的分类性能.

3 实验结果与分析

本文建立了甲状腺病理图像数据集以证明该方法的有效性.收集西京医院2017年至2018年的55例甲状腺乳头癌的病理图像,构建的数据集包括7928例正常病理图像和8572例PTC病理图像,均由江丰生物信息技术有限公司的KF⁃PRO⁃005扫描仪扫描.将数据集在患者级别随机分为训练、验证和测试数据集,并使用30%的数据集作为测试数据集.

本文构建了三组实验并使用甲状腺癌病理图像数据库对该方法进行验证.算法通过深度学习工具箱MatConvNet18实现,运行的软件环境为64位Ubuntu14.04系统,MatlabR2014b,Matconvnet深度学习工具包.

3.1 特征哈希码维度对分类效果的影响

待标注样本选择的主要依据为样本的不确定性,不确定性信息评估准则包括样本特征哈希码的相似性与样本信息熵.其中,哈希码的维度对不确定性样本的选择有一定影响,并影响模型的分类性能.为了验证特征哈希码维度对模型分类效果的影响,本实验将哈希码维度设置为16,32,64和128 bits,实验结果如图3所示.

图3

图3   不同哈希码维度分类准确率的对比

Fig.3   Classification accuracy with different hash length


可以看出,当哈希码维度为16 bits时分类准确率略低,主要是因为当哈希码的维度较低时,信息表征的准确性受到影响,使分类准确率略微下降.当哈希码的维度设置为32和64 bits时,性能略微提升;当哈希码维度增加为128 bits时,分类准确率却没有明显变化,说明64位哈希码已能较准确地表征病理图像信息.哈希码维度在64 bits的基础上再增加,对病理图像的特征表示没有更多贡献,因此将哈希码的维度设置为64 bits.

3.2 λ1λ2比值对分类效果的影响

前文已经说明样本不确定性度量准则包括样本的特征哈希码相似性与样本信息熵两个部分,为探究这两者比重对样本挑选的影响,构建以下实验来确定不确定信息计算(式(8))中比例系数λ1与λ2的取值对病理图像分类准确率的影响,实验结果如表1所示,其中黑体字表示最好的分类结果.可以看出,当仅使用特征哈希码相似性与样本信息熵选择不确定性样本时模型分类准确率较低,且需标注40%~50%的数据才能达到90%的分类准确率.而两者联合进行不确定性样本选择时,挑选出来的样本对模型的贡献率较高,仅需标注20%~30%的样本便可以达到90%的分类准确率,λ1λ2=19时模型的分类性能最好.

表1   不同标注比例的分类结果(λ1λ2

Table 1  Classification results with different ratio for λ1:λ2

λ1:λ21%5%10%20%30%40%50%
0∶100.8220.8340.8870.8940.9050.9040.912
1∶90.8620.8790.8930.8980.9140.9180.919
2∶80.8210.8590.8820.8910.9040.9130.912
3∶70.8300.8490.8560.8590.8990.9140.914
4∶60.8590.8600.8920.9010.9040.9070.908
5∶50.8310.8400.8680.8790.8880.9050.907
6∶40.8320.8250.8600.8650.9040.9080.915
7∶30.8330.8440.8430.8990.8900.8980.911
8∶20.8400.8510.8790.8860.9060.9080.913
9∶10.8350.8400.8630.8930.9000.9120.916
10∶00.8350.8370.8450.8520.8660.9020.917

新窗口打开| 下载CSV


3.3 不同标注比例分类结果对比实验

为了验证本文算法在不同标注比例数据上的有效性,将其与现有的几种基于主动学习的分类方法进行了对比,共对比了Uncertainty19,QBC6,GD7,QUIRE8,SPAL9以及Random六种方法.

由于本文算法的目的是使用尽可能少的标注成本获取能准确进行甲状腺癌病理图像分类的模型,因此主要对不同比例的标注图像的分类准确率进行比较.实验结果如表2所示,其中黑体字表示最好的分类结果.Random方法表示在未标记池中随机选取样本进行标注的方法.为确保实验的公平性,基于主动学习的对比方法使用的样本特征与本文方法使用的样本特征相同,即VGG⁃f网络提取的深度特征.同时,初始标记样本数均设置为训练样本总数的0.5%.

表2   不同方法分类结果

Table 2  Classification results of different methods

Used dataUncertaintyQBCGDQUIRESPALRandomOurs
1%0.8170.7820.8230.8300.8400.7020.862
5%0.8340.7950.8420.8350.8540.8090.879
10%0.8490.8000.8580.8500.8360.8480.893
20%0.8650.8020.8670.8550.8570.8600.898
30%0.8740.8010.8760.8680.8980.8660.914
40%0.8770.8020.8730.8730.9120.8660.918
50%0.8800.8030.8760.8790.9150.8720.919

新窗口打开| 下载CSV


可以看出,当标注数据量占总数据量的1%,5%,10%,20%,30%,40%及50%时,与其他方法相比,本文方法的分类准确率最高,且仅需标注不到30%的数据,就可获得90%的分类准确率.

此外,还将本文方法与原始的VGG⁃f网络的分类效果进行对比,如图4所示.可以看出,本文方法仅需标注30%的样本,便超过原始VGG⁃f网络使用全部数据时的分类准确率,能够节约70%左右的标注成本.

图4

图4   VGG⁃f与本文方法分类性能对比

Fig.4   Performance of VGG⁃f and our method


4 结 论

本文提出一种基于深度主动学习的甲状腺癌病理图像分类方法,能有效减少标注代价.该方法针对病理图像标注困难的问题,将深度学习与主动学习集成到一个框架中,无须标注所有的训练数据,只需选择对模型“有价值的”样本并进行标注,使用较少的标注数据便能提高模型的分类性能.

所提出的方法首先利用样本特征哈希码相似性与样本信息熵挑选不确定样本,然后进一步评估不确定性样本间的相似性,并去除冗余样本.最后对选择的样本进行标注并使用标注的数据更新模型参数,提升模型的分类性能.在甲状腺病理图像数据集上的实验结果表明,所提出方法能够有效降低标注代价.

参考文献

Global Burden of Disease Cancer Collaboration.

Global

regional,and national cancer incidence,mortality,years of life lost,years lived with disability,and disability⁃adjusted life⁃years for 32 cancer groups,1990 to

2015:a systematic analysis for the global burden of disease study

JAMA Oncology,20173(4):524-548.

[本文引用: 1]

黄庆文陈伊李华贵.

甲状腺癌CT、B超诊断与病理诊断对照分析研究

中外医疗,201736(28):179-180183.

[本文引用: 1]

Huang Q WChen YLi H Get al.

Comparative analysis of CT diagnosis,B ultrasound diagnosis and patho⁃logical diagnosis of thyroid carcinoma

China Foreign Medical Treatment,201736(28):179-180183.

[本文引用: 1]

陈健.

精确病理诊断在甲状腺癌精准医疗中的意义

中国肿瘤临床,201744(4):181-185.

[本文引用: 1]

Chen J.

Accurate pathological diagnosis of thyroid cancer in the era of precision medicine

Chinese Journal of Clinical Oncology,201744(4):181-185.

[本文引用: 1]

王伟. 甲状腺乳头状癌颈部转移淋巴结清扫研究进展. 硕士学位论文. 蚌埠蚌埠医学院2015.

[本文引用: 1]

Wang W. Research progress in metastatic cervical lymph node dissection of thyroid papillary carcinoma. Ph.D. Dissertation. BengbuBengbu Medical College2015.

[本文引用: 1]

Venkateswara HEusebio JChakraborty Set al.

Deep hashing network for unsupervised domain adaptation

Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI,USAIEEE20175018-5027.

[本文引用: 2]

Abe NMamitsuka H.

Query learning strategies using boosting and bagging

Proceedings of the Fifteenth International Conference on Machine Learning. San Francisco,CA,USAMorgan Kaufmann Publishers Inc.,1998,388:1-9.

[本文引用: 2]

Ebert SFritz MSchiele B.

RALF:a reinforced active learning formulation for object class recognition

2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence,RI,USAIEEE20123626-3633.

[本文引用: 2]

Huang S JJin RZhou Z H.

Active learning by querying informative and representative examples

Proceedings of the 23rd International Conference on Neural Information Processing Systems. Red Hook,NY,USACurran Associates Inc.,2010892-900.

[本文引用: 2]

Tang Y PHuang S J.

Self⁃paced active learning:Query the right thing at the right time

Proceedings of the AAAI Conference on Artificial Intelligence,Honolulu,HI,USAIEEE,2019335117-5124.

[本文引用: 2]

Wang DShang Y.

A new active labeling method for deep learning

2014 International Joint Conference on Neural Networks. Beijing,ChinaIEEE2014112-119.

[本文引用: 2]

Li J M.

Notice of removal:active learning for hyperspectral image classification with a stacked autoencoders based neural network

2016 IEEE International Conference on Image Processing. Phoenix,AZ,USAIEEE20161062-1065.

[本文引用: 1]

Stark FHazirbaş CTriebel Ret al.

CAPTCHA recognition with active deep learning

German Conference on Pattern Recognition Workshop. Springer Berlin Heidelberg,2015:94-101.

[本文引用: 1]

Al Rahhal M MBazi YAlHichri Het al.

Deep learning approach for active classification of electrocardiogram signals

Information Sciences,2016345340-354.

[本文引用: 1]

Zhou Z WShin JZhang Let al.

Fine⁃tuning convolutional neural networks for biomedical image analysis:actively and incrementally

2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI,USAIEEE20177340-7349.

[本文引用: 2]

Yang LZhang Y ZChen J Xet al.

Suggestive annotation:a deep active learning framework for biomedical image segmentation

International Conference on Medical Image Computing and Computer⁃Assisted Intervention. Springer Berlin Heidelberg,2017399-407.

[本文引用: 1]

Camelyon

.

[本文引用: 1]

Zhou Z WShin JFeng R Bet al.

Integrating active learning and transfer learning for carotid intima⁃media thickness video interpretation

Journal of Digital Imaging,201932(2):290-299.

[本文引用: 1]

Vedaldi ALenc K.

MatConvNet:convolutional neural networks for MATLAB

The 23rd ACM International Conference. Brisbane,AustraliaACM, 2015:689-692.

[本文引用: 1]

Lewis D DGale W A.

A sequential algorithm for training text classifiers

Proceedings of the 17th ACM International Conference on Research and Development in Information Retrieval. Springer Berlin Heidelberg,19943-12.

[本文引用: 1]

/