医学图像分割新方法:超越自注意力: 用于医学图像分割的可变形大核注意力


前言

本文提出可变形大核注意力(D-LKA Net),即采用大卷积核来充分理解体素上下文的简化注意力机制,在学分割数据集(Synapse、NIH 胰腺和皮肤病变)上证明了其卓越的性能
医学图像分割通过 Transformer 模型得到了显著改进,该模型在掌握深远的上下文和全局上下文信息方面表现出色。 然而,这些模型不断增长的计算需求 (与平方token数量成正比) 限制了它们的深度和分辨率能力。当前大多数方法逐片处理 D 体图像数据 (称为伪 3D),缺少关键的片间信息,从而降低模型的整体性能。为了解决这些挑战,我们引入了Deformable LargeKernel Attention (D-LKA Attention》的概念,这是一种采用大卷积核来充分理解体积上下文的简化注意力机制。 这种机制在类似于自注意力的感受野中运行,同时避免了计算开销。此外,我们提出的注意力机制受益于可变形卷积来灵活地扭曲采样网格,使模型能够适当地适应不同的数据模式。 我们设计了 D-LKA Attention 的 2D 和 3D 改编,后者在跨深度数据理解方面表现出色。这些组件共同塑造了我们新颖的分层 Vision Transformer 架构,即 D-LKA Net。 我们的模型针对流行的医学分割数据集 (Synapse、 NIH 胰腺和皮肤病变)上的领先方法进行的评估证明了其卓越的性能。


在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

论文地址:https://arxiv.org/abs/2309.00121
代码地址:https://github.com/mindflow-institue/deformableLKA

总结

以上就是今天要讲的内容,
关注公众号 CV算法小屋 了解更多前沿AIGC技术,帮助你更好的创业,发论文,找工作
校招找工作没有亮眼的项目怎么办
加技术交流群:加我微信 Lh1141755859

猜你喜欢

转载自blog.csdn.net/weixin_43228814/article/details/132689579