当前位置: X-MOL 学术Ultrason Imaging › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Classification of breast masses on ultrasound shear wave elastography using convolutional neural networks
Ultrasonic Imaging ( IF 2.5 ) Pub Date : 2020-06-05 , DOI: 10.1177/0161734620932609
Tomoyuki Fujioka 1 , Leona Katsuta 1 , Kazunori Kubota 1, 2 , Mio Mori 1 , Yuka Kikuchi 1 , Arisa Kato 1 , Goshi Oda 3 , Tsuyoshi Nakagawa 3 , Yoshio Kitazume 1 , Ukihide Tateishi 1
Affiliation  

We aimed to use deep learning with convolutional neural networks (CNNs) to discriminate images of benign and malignant breast masses on ultrasound shear wave elastography (SWE). We retrospectively gathered 158 images of benign masses and 146 images of malignant masses as training data for SWE. A deep learning model was constructed using several CNN architectures (Xception, InceptionV3, InceptionResNetV2, DenseNet121, DenseNet169, and NASNetMobile) with 50, 100, and 200 epochs. We analyzed SWE images of 38 benign masses and 35 malignant masses as test data. Two radiologists interpreted these test data through a consensus reading using a 5-point visual color assessment (SWEc) and the mean elasticity value (in kPa) (SWEe). Sensitivity, specificity, and area under the receiver operating characteristic curve (AUC) were calculated. The best CNN model (which was DenseNet169 with 100 epochs), SWEc, and SWEe had a sensitivity of 0.857, 0.829, and 0.914 and a specificity of 0.789, 0.737, and 0.763 respectively. The CNNs exhibited a mean AUC of 0.870 (range, 0.844–0.898), and SWEc and SWEe had an AUC of 0.821 and 0.855. The CNNs had an equal or better diagnostic performance compared with radiologist readings. DenseNet169 with 100 epochs, Xception with 50 epochs, and Xception with 100 epochs had a better diagnostic performance compared with SWEc (P = 0.018–0.037). Deep learning with CNNs exhibited equal or higher AUC compared with radiologists when discriminating benign from malignant breast masses on ultrasound SWE.

中文翻译:

使用卷积神经网络在超声剪切波弹性成像中对乳房肿块进行分类

我们旨在使用卷积神经网络 (CNN) 的深度学习来区分超声剪切波弹性成像 (SWE) 上的良性和恶性乳腺肿块的图像。我们回顾性收集了 158 张良性肿块图像和 146 张恶性肿块图像作为 SWE 的训练数据。深度学习模型是使用多个 CNN 架构(Xception、InceptionV3、InceptionResNetV2、DenseNet121、DenseNet169 和 NASNetMobile)构建的,具有 50、100 和 200 个时期。我们分析了 38 个良性肿块和 35 个恶性肿块的 SWE 图像作为测试数据。两名放射科医生通过使用 5 点视觉颜色评估 (SWEc) 和平均弹性值 (kPa) (SWEe) 的一致读数来解释这些测试数据。计算敏感性、特异性和受试者工作特征曲线下面积 (AUC)。最好的 CNN 模型(具有 100 个 epoch 的 DenseNet169)、SWEc 和 SWEe 的灵敏度分别为 0.857、0.829 和 0.914,特异性分别为 0.789、0.737 和 0.763。CNN 的平均 AUC 为 0.870(范围,0.844-0.898),SWEc 和 SWEe 的 AUC 为 0.821 和 0.855。与放射科医师的读数相比,CNN 具有相同或更好的诊断性能。与 SWEc 相比,具有 100 个 epoch 的 DenseNet169、具有 50 个 epoch 的 Xception 和具有 100 个 epoch 的 Xception 具有更好的诊断性能(P = 0.018-0.037)。与放射科医生相比,使用 CNN 进行深度学习在超声 SWE 上区分良恶性乳腺肿块时表现出相同或更高的 AUC。CNN 的平均 AUC 为 0.870(范围,0.844-0.898),SWEc 和 SWEe 的 AUC 为 0.821 和 0.855。与放射科医师的读数相比,CNN 具有相同或更好的诊断性能。与 SWEc 相比,具有 100 个 epoch 的 DenseNet169、具有 50 个 epoch 的 Xception 和具有 100 个 epoch 的 Xception 具有更好的诊断性能(P = 0.018-0.037)。与放射科医生相比,使用 CNN 进行深度学习在超声 SWE 上区分良恶性乳腺肿块时表现出相同或更高的 AUC。CNN 的平均 AUC 为 0.870(范围,0.844-0.898),SWEc 和 SWEe 的 AUC 为 0.821 和 0.855。与放射科医师的读数相比,CNN 具有相同或更好的诊断性能。与 SWEc 相比,具有 100 个 epoch 的 DenseNet169、具有 50 个 epoch 的 Xception 和具有 100 个 epoch 的 Xception 具有更好的诊断性能(P = 0.018-0.037)。与放射科医生相比,使用 CNN 进行深度学习在超声 SWE 上区分良恶性乳腺肿块时表现出相同或更高的 AUC。037)。与放射科医生相比,使用 CNN 进行深度学习在超声 SWE 上区分良恶性乳腺肿块时表现出相同或更高的 AUC。037)。与放射科医生相比,使用 CNN 进行深度学习在超声 SWE 上区分良恶性乳腺肿块时表现出相同或更高的 AUC。
更新日期:2020-06-05
down
wechat
bug