BT - Unet:生物医学图像分割的自监督学习框架

开发 前端
BT-Unet采用Barlow twin方法对U-Net模型的编码器进行无监督的预训练减少冗余信息,以学习数据表示。之后,对完整网络进行微调以执行实际的分割。

BT-Unet采用Barlow twin方法对U-Net模型的编码器进行无监督的预训练减少冗余信息,以学习数据表示。之后,对完整网络进行微调以执行实际的分割。

BT-Unet由 Indian Institute of Information Technology Allahabad开发,发布在2022年的JML上。

BT-Unet

图片

BT-Unet架构图:a、预训练U-Net编码器网络,b、用预训练的编码器权值初始化的微调U-Net模型

BT-Unet框架分为两个阶段:1)预训练阶段和2)微调阶段。

预训练

预训练的目的是使用无注释的数据样本,学习复杂的特征表示。U-Net模型的编码器使用Barlow Twins (BT)策略进行预先训练,然后进行微调以执行实际的分割:

BT-Unet框架可应用于各种先进的U-Net模型:经典U-Net、注意力U-Net (A-Unet)、inception U-Net (I-Unet)和residual cross-spatial attention guided inception  U-Net (RCA-IUnet)。

微调

U-Net 模型中编码器网络的权重使用预训练权重(来自第一阶段)进行初始化,而网络的其余部分使用默认权重进行初始化。

使用有限的注释样本对 U-Net 模型进行微调,用于生物医学图像分割。

U-Net 模型使用分段损失函数进行微调,L 定义为二元交叉熵损失、LBC 和dice coefficient损失的平均值,LDC:

其中,y为像素的真值标签,p(y)为像素的预测标签,N为像素的总数量。

结果表现

论文使用下面的数据集进行评测对比:

基于相同样本数量的小训练集的性能分析

  • KDSB18:BTU-Net 模型的性能优于没有使用 BT方法 的模型。
  • BUSIS:U-Net 和 A-Unet 模型无法学习和提取有关肿瘤区域的特征图(精度、DC 和 mIoU 为 0),但是通过预训练,这些模型取得了显着的改进。在 I-Unet 和 RCAIUnet 模型的情况下,通过预训练可以得到相当大的改进。
  • ISIC18:I-Unet 和 RCAIUnet 模型是影响最大的网络,精度分别提高了 5.1% 和 2.2%。然而,在使用 BT 预训练时,经典的U-Net 和 A-Unet 的性能略有下降。
  • BraTS18:I-Unet 和 RCA-IUnet 模型在使用 BT-Unet 框架时在分割性能上取得了显着提升,而普通 U-Net 和 A-Unet 模型则没有观察到相同的行为。

在不同规模小型训练集的性能研究

图片

对于所有训练数据比例小于50%的数据集,在模型之间观察到类似的性能变化。

定性结果

图片

带有BT的RCA-IUNet具有很好的分割效果。

责任编辑:华轩 来源: DeepHub IMBA
相关推荐

2014-08-21 09:16:45

生物医学

2023-11-23 15:54:01

人工智能监督学习无监督学习

2022-05-17 16:38:40

数据训练

2022-11-23 13:36:38

模型研究

2021-06-23 15:45:55

神经网络AI算法

2020-04-28 17:26:04

监督学习无监督学习机器学习

2010-01-27 10:11:44

曙光超算HPC

2024-04-01 07:30:00

机器人人工智能

2023-11-27 15:34:51

大语言模型PubMedBERT

2021-11-08 22:42:51

机器学习监督学习数据

2017-06-12 14:04:45

深度学习人工智能

2023-11-28 12:03:46

人工智能无监督学习算法

2015-10-12 10:37:42

学习算法检测

2019-10-14 10:40:03

机器学习人工智能非监督学习

2023-02-01 13:29:46

机器学习

2020-08-16 11:34:43

人工智能机器学习技术

2020-08-14 11:00:44

机器学习人工智能机器人

2021-12-31 14:11:20

框架AI开发

2021-12-06 17:38:51

强化学习工具人工智能

2020-01-20 14:25:19

数据平台架构
点赞
收藏

51CTO技术栈公众号