300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > 深度学习论文精读06——应对卷积神经网络对乳腺癌组织病理学图像进行分类

深度学习论文精读06——应对卷积神经网络对乳腺癌组织病理学图像进行分类

时间:2020-10-15 12:51:26

相关推荐

深度学习论文精读06——应对卷积神经网络对乳腺癌组织病理学图像进行分类

标题:Deep Features for Breast Cancer Histopathological Image Classifification

链接:查看文献原文

翻译参考:查看文献翻译

文章目录

一、背景二、主要内容三、CNN第一层卷积层的特征图 四、模型架构AlexNet CNN architecture(a)在40×放大后获得的乳腺恶性肿瘤样例 (b)32×32补丁图像工作中评估的补丁程序图像策略总结 五、实验六、总结

一、背景

癌症诊断的自动成像处理作为一个研究课题已经探索了40多年,但由于要分析的图像的复杂性,仍然具有挑战性。最近大多数与BC分类相关的工作都集中在整体滑动成像(WSI)上。然而,广泛采用WSI和其他形式的数字病理学仍然面临着一些障碍,如实施和操作该技术的成本高、大量临床程序的生产力不足、与技术相关的固有问题、未解决的监管问题以及病理学家的“文化阻力”。大多数关于BC组织病理学图像分析的工作都是在小型数据集上进行的,而这些数据集通常是科学界无法获得的。

二、主要内容

本文对BC组织病理图像分类问题进行了深入的研究。除了评估不同的CNN架构外,还研究了不同的处理高分辨率纹理图像的方法,而不改变用于低分辨率图像的CNN架构。对提出的Breakhis数据集进行的一系列综合实验表明,CNN获得更好的结果。同时,通过使用简单的融合规则(如max、product和sum)组合不同的CNN,可以获得更好的性能。

三、CNN

CNN由堆叠在一起的多个可训练层级组成,随后是一个监督分类器,一组名为特征映射的数组表示每个阶段的输入和输出。在输入端,每个特征映射都是一个二维数组,存储输入图像的颜色通道。输出由一个集合数组组成,其中每个特征映射表示在相关输入位置提取的特定特征。

在CNN中,关键的计算是特征检测器与输入信号的卷积。卷积层计算连接到输入中局部区域的神经元的输出,每个神经元计算其权重和输入体积中连接的区域之间的点积。与输入卷积的权值集称为滤波器或内核。每个过滤器在空间上都很小(宽度和高度),但会延伸到输入卷积层的整个深度。对于图像等输入,典型的滤波器是小区域,每个神经元只连接到前一层的这个区域。权重在神经元之间共享,从而引导过滤器学习图像任何部分中出现的频繁模式。

如下图学习过滤器(也称为功能图或激活图),对一组过滤器进行卷积可以改进表示:在CNN的第一层,功能从单个像素变成简单的原语,如水平和垂直的线、圆和颜色块。与传统的单通道图像处理过滤器不同,这些CNN过滤器是通过所有输入通道计算的。由于其平移不变性,卷积滤波器在任何检测到特征的地方都会产生高响应。

第一层卷积层的特征图

四、模型架构

对breakhis数据集中的图像进行分类,评估了提出的以前存在的深度神经网络结构。Lenet属于CNN的一种,擅长数字分类,但是在所评估的病理学图像上,Lenet的性能较低,只有72%的准确率;对于AlexNet,以准确分类CIFAR-10 1数据集(包括是个互斥的类的60000个32×32彩色图像,50000个用于训练,10000个用于测试)图像,该体系结构由多层卷积、汇集、校正线性单元(relu)非线性和局部对比度归一化(在其上使用线性分类器)组成。

AlexNet CNN architecture

本文提出的方法旨在处理组织病理学BC分类中常用的高分辨率图像。将现有的深度神经网络模型用于更大的图像可能会导致更复杂的体系结构,从而大大增加模型的复杂性。为了解决这个问题,本文提出的方法是基于随机抽取的用于训练的补丁,从每个图像中提取一组合适的补丁,通过减小图像的维数来获得最佳效果,开始的700×460图像被减少到350×230,使用像素面积关系重新采样。第一例是采用50%重叠的滑动窗口;第二例是随机抽取补丁,补丁之间没有重叠控制。

此外,本文根据报告结果评估了两种补丁(32×32和64×64),

(a)在40×放大后获得的乳腺恶性肿瘤样例 (b)32×32补丁图像

该模型起到了规范化的作用,防止了模型对训练集的过度拟合。滑动窗口策略允许32×32和32×32的补丁之间50%的重叠,从而分别产生260和54个图像补丁。

工作中评估的补丁程序图像策略总结

五、实验

Breakhis数据集分为训练集(70%)和测试集(30%)两组。为了保证分类器对未知患者的通用性,对数据集进行了拆分,以便用于构建训练集的患者不用于测试集。这项研究的结果是五次试验的平均值。该协议独立应用于四种可用放大倍数中的每一种。在讨论医学图像时,有两种方法可以报告结果。在第一种情况下,决策是基于患者的,因此,识别率是在患者级别计算的。设Np为患者p的癌症图像数。对于每个患者,如果Nrec癌症图像被正确分类,可以将患者评分定义为:

在第二种情况下,识别率是在图像级别计算的(即不考虑患者信息),因此提供了一种方法来单独估计CNN模型的图像分类精度。Nall测试集的癌症图像数。如果系统正确分类n个rec癌症图像,则图像级别的识别率为:

六、总结

本文进行了一组在BreaKHis数据集上的深度学习实验。本文证明了可以使用现有的CNN架构,如AlexNet,它用于对物体的彩色图像进行分类,并将其应用于BC组织病理学图像的分类。还提出了几种训练CNN架构的策略,基于随机或通过滑动窗口机制获得的补丁,允许处理这些高分辨率的纹理图像。在BreaKHis数据集上获得的实验结果显示,与在相同数据集上训练的纹理描述符的传统机器学习模型相比,CNN获得的精度更高。未来的工作可以探索不同的CNN架构和超参数的优化。此外,还可以探索选择具有代表性的补丁的策略,以提高准确性。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。