当前位置: X-MOL 学术Pattern Recogn. Lett. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Automated Invasive Ductal Carcinoma Detection Based Using Deep Transfer Learning with Whole-Slide Images
Pattern Recognition Letters ( IF 3.9 ) Pub Date : 2020-03-06 , DOI: 10.1016/j.patrec.2020.03.011
Yusuf Celik , Muhammed Talo , Ozal Yildirim , Murat Karabatak , U Rajendra Acharya

Advances in artificial intelligence technologies have made it possible to obtain more accurate and reliable results using digital images. Due to the advances in digital histopathological images obtained using whole slide image (WSI) scanners, automated analysis of digital images by computer support systems has become interesting. In particular, deep learning architectures, are one of the preferred approaches in the analysis of digital histopathology images. The deeper networks trained on large amounts of image data are adapted for different tasks using transfer learning technique. In this study, automated detection of invasive ductal carcinoma (IDC), which is the most common subtype of breast cancers, is proposed using deep transfer learning technique. We have used deep learning pre-trained models, ResNet-50 and DenseNet-161 for the IDC detection task. The public histopathology dataset containing 277,524 image patches were used in our experimental studies. As a result of training on the last layers of pre-trained deep networks, DenseNet-161 model has yielded F-sore of 92.38% and balanced accuracy value of 91.57%. Similarly, we have obtained F-score of 94.11% and balanced accuracy value of 90.96% using ResNet-50 architecture. In addition, our developed model is validated using the publicly available BreakHis breast cancer dataset and obtained promising results in classifying magnification independent histopathology images into benign and malignant classes. Our developed system obtained the highest classification performance as compared to the state-of-art techniques and is ready to be tested with more diverse huge databases.



中文翻译:

基于带有完整幻灯片图像的深度转移学习的自动浸润性导管癌检测

人工智能技术的进步使得使用数字图像获得更准确和可靠的结果成为可能。由于使用整体幻灯片图像(WSI)扫描仪获得的数字组织病理学图像的进步,通过计算机支持系统对数字图像进行自动分析变得非常有趣。特别是,深度学习架构是数字组织病理学图像分析中的首选方法之一。使用转移学习技术,针对大量图像数据训练的更深层网络适用于不同任务。在这项研究中,提议使用深度转移学习技术自动检测浸润性导管癌(IDC),这是最常见的乳腺癌亚型。我们使用了深度学习的预训练模型,ResNet-50和DenseNet-161用于IDC检测任务。我们的实验研究使用了包含277,524个图像斑块的公共组织病理学数据集。经过在预训练的深度网络的最后一层进行训练的结果,DenseNet-161模型的F-sore率为92.38%,平衡精度值为91.57%。同样,我们使用ResNet-50架构获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。我们的实验研究使用了包含277,524个图像斑块的公共组织病理学数据集。经过在预训练的深度网络的最后一层进行训练的结果,DenseNet-161模型的F-sore率为92.38%,平衡精度值为91.57%。同样,我们使用ResNet-50架构获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。我们的实验研究使用了包含277,524个图像斑块的公共组织病理学数据集。经过在预训练的深度网络的最后一层进行训练的结果,DenseNet-161模型的F-sore率为92.38%,平衡精度值为91.57%。同样,我们使用ResNet-50架构获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。在我们的实验研究中使用了524个图像补丁。经过在预训练的深度网络的最后一层进行训练的结果,DenseNet-161模型的F-sore率为92.38%,平衡精度值为91.57%。同样,我们使用ResNet-50架构获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。在我们的实验研究中使用了524个图像补丁。经过在预训练的深度网络的最后一层进行训练的结果,DenseNet-161模型的F-sore率为92.38%,平衡精度值为91.57%。同样,使用ResNet-50架构,我们获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。DenseNet-161模型产生的F-sore为92.38%,平衡精度值为91.57%。同样,我们使用ResNet-50架构获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。DenseNet-161模型产生的F-sore为92.38%,平衡精度值为91.57%。同样,我们使用ResNet-50架构获得了94.11%的F得分和90.96%的平衡精度值。此外,我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将放大倍数独立的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。我们开发的模型已使用公开可用的BreakHis乳腺癌数据集进行了验证,并在将独立于放大倍数的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。我们开发的模型已使用公开的BreakHis乳腺癌数据集进行了验证,并在将独立于放大倍数的组织病理学图像分为良性和恶性类别方面获得了可喜的结果。与最先进的技术相比,我们开发的系统具有最高的分类性能,并可以使用更多种类的大型数据库进行测试。

更新日期:2020-03-07
down
wechat
bug