当前位置: X-MOL 学术Front. Comput. Neurosci. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Segmenting Brain Tumor Using Cascaded V-Nets in Multimodal MR Images
Frontiers in Computational Neuroscience ( IF 3.2 ) Pub Date : 2020-02-14 , DOI: 10.3389/fncom.2020.00009
Rui Hua 1, 2 , Quan Huo 2 , Yaozong Gao 2 , He Sui 3 , Bing Zhang 4 , Yu Sun 1 , Zhanhao Mo 3 , Feng Shi 2
Affiliation  

In this work, we propose a novel cascaded V-Nets method to segment brain tumor substructures in multimodal brain magnetic resonance imaging. Although V-Net has been successfully used in many segmentation tasks, we demonstrate that its performance could be further enhanced by using a cascaded structure and ensemble strategy. Briefly, our baseline V-Net consists of four levels with encoding and decoding paths and intra- and inter-path skip connections. Focal loss is chosen to improve performance on hard samples as well as balance the positive and negative samples. We further propose three preprocessing pipelines for multimodal magnetic resonance images to train different models. By ensembling the segmentation probability maps obtained from these models, segmentation result is further improved. In other hand, we propose to segment the whole tumor first, and then divide it into tumor necrosis, edema, and enhancing tumor. Experimental results on BraTS 2018 online validation set achieve average Dice scores of 0.9048, 0.8364, and 0.7748 for whole tumor, tumor core and enhancing tumor, respectively. The corresponding values for BraTS 2018 online testing set are 0.8761, 0.7953, and 0.7364, respectively. We also evaluate the proposed method in two additional data sets from local hospitals comprising of 28 and 28 subjects, and the best results are 0.8635, 0.8036, and 0.7217, respectively. We further make a prediction of patient overall survival by ensembling multiple classifiers for long, mid and short groups, and achieve accuracy of 0.519, mean square error of 367240 and Spearman correlation coefficient of 0.168 for BraTS 2018 online testing set.

中文翻译:

在多模态 MR 图像中使用级联 V-Net 分割脑肿瘤

在这项工作中,我们提出了一种新的级联 V-Nets 方法来分割多模态脑磁共振成像中的脑肿瘤亚结构。尽管 V-Net 已成功用于许多分割任务,但我们证明了通过使用级联结构和集成策略可以进一步提高其性能。简而言之,我们的基线 V-Net 由四个级别组成,具有编码和解码路径以及路径内和路径间跳过连接。选择焦点损失以提高硬样本的性能并平衡正负样本。我们进一步为多模态磁共振图像提出了三个预处理管道来训练不同的模型。通过对从这些模型获得的分割概率图进行集成,进一步提高了分割结果。在另一方面,我们建议先对整个肿瘤进行分割,然后将其分为肿瘤坏死、水肿和增强肿瘤。在 BraTS 2018 在线验证集上的实验结果,整个肿瘤、肿瘤核心和增强肿瘤的平均 Dice 分数分别为 0.9048、0.8364 和 0.7748。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。再分为肿瘤坏死、水肿、强化肿瘤。在 BraTS 2018 在线验证集上的实验结果,整个肿瘤、肿瘤核心和增强肿瘤的平均 Dice 分数分别为 0.9048、0.8364 和 0.7748。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。再分为肿瘤坏死、水肿、强化肿瘤。在 BraTS 2018 在线验证集上的实验结果,整个肿瘤、肿瘤核心和增强肿瘤的平均 Dice 分数分别为 0.9048、0.8364 和 0.7748。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。在 BraTS 2018 在线验证集上的实验结果,整个肿瘤、肿瘤核心和增强肿瘤的平均 Dice 分数分别为 0.9048、0.8364 和 0.7748。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确率为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。在 BraTS 2018 在线验证集上的实验结果,整个肿瘤、肿瘤核心和增强肿瘤的平均 Dice 分数分别为 0.9048、0.8364 和 0.7748。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。7748 分别用于整个肿瘤、肿瘤核心和增强肿瘤。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。7748 分别用于整个肿瘤、肿瘤核心和增强肿瘤。BraTS 2018 在线测试集的对应值分别为 0.8761、0.7953 和 0.7364。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。我们还在由 28 名和 28 名受试者组成的当地医院的两个附加数据集中评估了所提出的方法,最佳结果分别为 0.8635、0.8036 和 0.7217。我们通过对长组、中组和短组的多个分类器进行集成来进一步预测患者的总生存率,BraTS 2018 在线测试集的准确度为 0.519,均方误差为 367240,Spearman 相关系数为 0.168。
更新日期:2020-02-14
down
wechat
bug