MedLSAM:人工智能模型彻底改变医疗 - 人工智能通过少镜头定位实现医学图像分割 深入研究解剖部位识别和极值点注释

介绍

医学图像分割是医疗保健行业的一个关键过程。它涉及将数字医学图像划分为多个部分,以简化和/或将图像的表示更改为更有意义且更易于分析的内容。多年来,人们开发了各种技术来增强这一过程,而该领域的最新进展之一就是 MedLSAM。

关键词:SAM·医学图像分割·对比学习

了解 MedLSAM

MedLSAM是研究人员开发的一种新颖模型,旨在简化医学图像分割的注释过程。该模型引入了独特的少镜头定位框架,可以识别体内的任何目标解剖部分。这是通过在几个模板上的三个方向上仅使用六个极值点来实现的。其结果是一个更加精简和高效的过程,显着减少了医学图像注释所需的时间和精力。MedLSAM 中的少样本定位框架,也称为 MedLAM,基于器官的空间分布保持强相似性的观察跨越不同的个体。这一观察结果使 MedLAM 能够定位体内任何目标解剖部位。

分段任意模型(SAM)最近成为图像分割领域的突破性模型。然而,原始 SAM 及其医学改编都需要逐片注释,这会随着数据集的大小直接增加注释工作量。作者提出 MedLSAM 来解决这个问题,确保无论数据集大小如何,注释工作量恒定,从而简化注释过程。我们的模型引入了一个几次镜头定位框架,能够定位体内的任何目标解剖部分。为了实现这一目标,作者开发了一个用于 3D 医学图像的本地化任何模型 (MedLAM),利用两项自我监督任务:相对距离回归 (RDR) 和跨 14,012 个 CT 扫描的综合数据集的多尺度相似性 (MSS)。然后,作者通过将 MedLAM 与 SAM 集成,建立了一种准确分割的方法。通过在几个模板上仅注释三个方向上的六个极值点,我们的模型可以自主识别所有计划注释的数据上的目标解剖区域。这使得我们的框架能够为图像的每个切片生成一个 2D 边界框

猜你喜欢

转载自blog.csdn.net/iCloudEnd/article/details/132963404