当前位置: X-MOL 学术Comput. Math. Method Med. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A Computationally Virtual Histological Staining Method to Ovarian Cancer Tissue by Deep Generative Adversarial Networks
Computational and Mathematical Methods in Medicine ( IF 2.809 ) Pub Date : 2021-07-02 , DOI: 10.1155/2021/4244157
Xiangyu Meng 1, 2 , Xin Li 3 , Xun Wang 1, 4
Affiliation  

Histological analysis to tissue samples is elemental for diagnosing the risk and severity of ovarian cancer. The commonly used Hematoxylin and Eosin (H&E) staining method involves complex steps and strict requirements, which would seriously impact the research of histological analysis of the ovarian cancer. Virtual histological staining by the Generative Adversarial Network (GAN) provides a feasible way for these problems, yet it is still a challenge of using deep learning technology since the amounts of data available are quite limited for training. Based on the idea of GAN, we propose a weakly supervised learning method to generate autofluorescence images of unstained ovarian tissue sections corresponding to H&E staining sections of ovarian tissue. Using the above method, we constructed the supervision conditions for the virtual staining process, which makes the image quality synthesized in the subsequent virtual staining stage more perfect. Through the doctors’ evaluation of our results, the accuracy of ovarian cancer unstained fluorescence image generated by our method reached 93%. At the same time, we evaluated the image quality of the generated images, where the FID reached 175.969, the IS score reached 1.311, and the MS reached 0.717. Based on the image-to-image translation method, we use the data set constructed in the previous step to implement a virtual staining method that is accurate to tissue cells. The accuracy of staining through the doctor’s assessment reached 97%. At the same time, the accuracy of visual evaluation based on deep learning reached 95%.

中文翻译:

通过深度生成对抗网络对卵巢癌组织进行计算虚拟组织染色方法

对组织样本的组织学分析是诊断卵巢癌风险和严重程度的基础。常用的苏木精伊红(H&E)染色方法步骤复杂,要求严格,严重影响卵巢癌组织学分析的研究。生成对抗网络 (GAN) 的虚拟组织学染色为这些问题提供了一种可行的方法,但使用深度学习技术仍然是一个挑战,因为可用于训练的数据量非常有限。基于 GAN 的思想,我们提出了一种弱监督学习方法来生成与卵巢组织 H&E 染色切片相对应的未染色卵巢组织切片的自发荧光图像。使用上述方法,我们构建了虚拟染色过程的监督条件,使得后续虚拟染色阶段合成的图像质量更加完美。通过医生对我们结果的评估,我们的方法生成的卵巢癌未染色荧光图像的准确率达到了93%。同时,我们对生成的图像的图像质量进行了评估,其中 FID 达到了 175.969,IS 得分达到了 1.311,MS 达到了 0.717。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。使得后续虚拟染色阶段合成的图像质量更加完美。通过医生对我们结果的评估,我们的方法生成的卵巢癌未染色荧光图像的准确率达到了93%。同时,我们对生成的图像的图像质量进行了评估,其中 FID 达到了 175.969,IS 得分达到了 1.311,MS 达到了 0.717。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。使得后续虚拟染色阶段合成的图像质量更加完美。通过医生对我们结果的评估,我们的方法生成的卵巢癌未染色荧光图像的准确率达到了93%。同时,我们对生成的图像的图像质量进行了评估,其中 FID 达到了 175.969,IS 得分达到了 1.311,MS 达到了 0.717。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。我们的方法生成的卵巢癌未染色荧光图像的准确率达到了93%。同时,我们对生成的图像的图像质量进行了评估,其中 FID 达到了 175.969,IS 得分达到了 1.311,MS 达到了 0.717。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。我们的方法生成的卵巢癌未染色荧光图像的准确率达到了93%。同时,我们对生成的图像的图像质量进行了评估,其中 FID 达到了 175.969,IS 得分达到了 1.311,MS 达到了 0.717。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。基于图像到图像的转换方法,我们利用上一步构建的数据集实现了一种对组织细胞准确的虚拟染色方法。经医生评估染色准确率达到97%。同时,基于深度学习的视觉评价准确率达到95%。
更新日期:2021-07-02
down
wechat
bug