《Transform- and multi-domain deep learning for single-frame rapid autofocusing》笔记

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_24548569/article/details/82912898

论文:Transform- and multi-domain deep learning for single-frame rapid autofocusing in whole slide imaging

作者的快速聚焦方法是使用卷积网络从单个成像图片中预测图片的离焦距。之前的聚焦方法大多需要测量多张成像图片的聚焦值来预测聚焦镜头的移动方向和移动距离,但是论文的方法可以直接预测出聚焦位置的方向和距离。

作者使用不同的图片特征,包括图片的空间域特征、频域特征、自相关特征及其组合。作者探讨这几种特征对预测图片的离焦距的影响。虽然不同的离焦距导致成像图片不同的空间特征,但是仅仅依赖空间特征会对聚焦过程产生不好的表现。因此,最好从其他域中(比如频域)提取离焦特征。论文的实验把载玻片成像系统关照条件分成3种:incoherent Kohler illumination, partially coherent illumination with two plane waves, and one-plane-wave illumination。大多数情况下都是使用第一种关照条件。对于incoherent illumination,傅里叶阶段频率直接与离焦距相关联。类似地,自相关峰值与双平面波照射的离焦距直接相关。

Archiecture
作者使用的网络架构是ResNet:
deep residual network architecture

Trainset
作者从一次聚焦过程中采集一组图片,在离聚焦位置的-10μm到+10μm的范围内每隔0.5μm抓取一张图片,共41张成像图片,一些训练样本如
The three z-stacks for three illumination conditions
从上往下分别表示三种光照条件下的训练样本。对于图(a)中的incoherent照明条件,我们可以看到正离焦方向的图像对比度较高,这可能是由于轴向点扩散函数的不对称性质,这也是卷积网络可以预测离焦方向的原因。作者选择最大化Brenner梯度的位置作为 in-focus ground truth。

Experiment
作者设计了3组对比实验:
experiment
实验a-c只考虑了空间域的特征,其中a1是在incoherent光照条件下进行实验,输入到网络的数据是图片的RGB三个颜色通道。实验a2是在Dual-LED光照条件下进行实验的,因为使用的LED使用绿色光,所以输入到网络的只有G通道的数据。实验a3是在Single-LED光照条件下进行实验的,同样输入数据是G通道的数据。

实验d-e只考虑变换域的特征。实验d输入的数据是在Incoherent光照条件下的傅里叶域特征,d1是傅里叶幅度通道,d2是傅里叶角通道。实验e输入的数据是在Dual-LED光照条件下的自相关特征。

实验f-g考虑的特征是多域的。实验f在Incoherent光照条件利用空间强度(灰度)通道(f1)、傅里叶幅度通道(f2)和傅里叶角通道(f3)。实验g在Dual-LED关照条件下利用空间强度通道(g1)、傅里叶幅度通道(g2)和自相关通道(g3)。

Result
作者使用两种测试数据,一种是与训练数据同种类型(different samples, same protocol),另外一种是与训练数据不同类型(different samples, different protocol)。

第一组实验结果:(a指第一种测试数据类型的实验结果,b指第二种测试数据的实验结果,在景深DOF范围内的点都表示得到清晰图片)
group 1 result

第二组实验结果:
group 2 result

扫描二维码关注公众号,回复: 3731425 查看本文章

第三组实验结果:
group 3 result

结论:
(1)对于incoherent照明条件,2-domain网络具有最佳性能。(2)对于双LED照明条件,自相关网络和3-domain网络具有相似的性能。自相关网络在类型2样本上表现更好。(3)通常,用于双LED照明的网络比用于incoherent照明的网络表现更好。

猜你喜欢

转载自blog.csdn.net/qq_24548569/article/details/82912898
今日推荐