当前位置: X-MOL 学术Biomed. Opt. Express › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Low-cost whole slide imaging system with single-shot autofocusing based on color-multiplexed illumination and deep learning
Biomedical Optics Express ( IF 2.9 ) Pub Date : 2021-08-16 , DOI: 10.1364/boe.428655
Kaifa Xin 1, 2 , Shaowei Jiang 3 , Xu Chen 1, 2 , Yonghong He 1 , Jian Zhang 4 , Hongpeng Wang 5 , Honghai Liu 5 , Qin Peng 6 , Yongbing Zhang 5 , Xiangyang Ji 2
Affiliation  

Recent research on whole slide imaging (WSI) has greatly promoted the development of digital pathology. However, accurate autofocusing is still the main challenge for WSI acquisition and automated digital microscope. To address this problem, this paper describes a low cost WSI system and proposes a fast, robust autofocusing method based on deep learning. We use a programmable LED array for sample illumination. Before the brightfield image acquisition, we turn on a red and a green LED, and capture a color-multiplexed image, which is fed into a neural network for defocus distance estimation. After the focus tracking process, we employ a low-cost DIY adaptor to digitally adjust the photographic lens instead of the mechanical stage to perform axial position adjustment, and acquire the in-focus image under brightfield illumination. To ensure the calculation speed and image quality, we build a network model based on a ‘light weight’ backbone network architecture-MobileNetV3. Since the color-multiplexed coherent illuminated images contain abundant information about the defocus orientation, the proposed method enables high performance of autofocusing. Experimental results show that the proposed method can accurately predict the defocus distance of various types of samples and has good generalization ability for new types of samples. In the case of using GPU, the processing time for autofocusing is less than 0.1 second for each field of view, indicating that our method can further speed up the acquisition of whole slide images.

中文翻译:

基于彩色复用照明和深度学习的单次自动对焦低成本全玻片成像系统

最近对全玻片成像(WSI)的研究极大地促进了数字病理学的发展。然而,准确的自动对焦仍然是 WSI 采集和自动数码显微镜的主要挑战。为了解决这个问题,本文描述了一个低成本的 WSI 系统,并提出了一种基于深度学习的快速、鲁棒的自动对焦方法。我们使用可编程 LED 阵列进行样品照明。在明场图像采集之前,我们打开一个红色和一个绿色的 LED,并捕获一个颜色多路复用的图像,将其输入到神经网络中进行散焦距离估计。在对焦跟踪过程之后,我们使用低成本的DIY适配器对摄影镜头进行数字调整,而不是机械平台进行轴向位置调整,并在明场照明下获取对焦图像。为了保证计算速度和图像质量,我们构建了一个基于“轻量级”骨干网络架构——MobileNetV3的网络模型。由于颜色复用相干照明图像包含有关散焦方向的丰富信息,因此所提出的方法能够实现高性能的自动对焦。实验结果表明,该方法能够准确预测各类样本的离焦距离,对新型样本具有良好的泛化能力。在使用 GPU 的情况下,每个视野的自动对焦处理时间小于 0.1 秒,表明我们的方法可以进一步加快整个幻灯片图像的获取速度。由于颜色复用相干照明图像包含有关散焦方向的丰富信息,因此所提出的方法能够实现高性能的自动对焦。实验结果表明,该方法能够准确预测各类样本的离焦距离,对新型样本具有良好的泛化能力。在使用 GPU 的情况下,每个视野的自动对焦处理时间小于 0.1 秒,表明我们的方法可以进一步加快整个幻灯片图像的获取速度。由于颜色复用相干照明图像包含有关散焦方向的丰富信息,因此所提出的方法能够实现高性能的自动对焦。实验结果表明,该方法能够准确预测各类样本的离焦距离,对新型样本具有良好的泛化能力。在使用 GPU 的情况下,每个视野的自动对焦处理时间小于 0.1 秒,表明我们的方法可以进一步加快整个幻灯片图像的获取速度。实验结果表明,该方法能够准确预测各类样本的离焦距离,对新型样本具有良好的泛化能力。在使用 GPU 的情况下,每个视野的自动对焦处理时间小于 0.1 秒,表明我们的方法可以进一步加快整个幻灯片图像的获取速度。实验结果表明,该方法能够准确预测各类样本的离焦距离,对新型样本具有良好的泛化能力。在使用 GPU 的情况下,每个视野的自动对焦处理时间小于 0.1 秒,表明我们的方法可以进一步加快整个幻灯片图像的获取速度。
更新日期:2021-09-02
down
wechat
bug