M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

摘要

 

提出SimCLR,用于视觉表征的对比学习,简化了最近提出的对比自监督学习算法,为了理解是什么使对比预测任务能够学习有用的表示,系统研究了提出框架的主要组成部分,发现:

1)数据增强的组成在定义有效的预测任务中起着关键的作用

2)在表示和对比损失之间引入一个可学习的非线性变换,大大提高了已学习表示的质量

3)与监督学习相比,对比学习受益于更大的批量规模和更多的训练步骤

SimCLR学习的自监督表示训练的线性分类器达到了76.5%top-1精度,比之前的技术水平提高了7%,与监督ResNet-50的性能相匹配。

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

方法

  1. 对比学习框架

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

随机采样一个minibatch的数据(N个样本),定义生成的增强样本对的对比预测任务,得到2N个数据点,给定一个正例对,将其它2(N-1)个增强样本当作负例,相似性度量采用余弦距离,则正例对(i,j)的损失函数为:

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

τ代表温度参数,最后的损失是计算所有正例样本对,包含(i,j)(j,i),称之为NT-Xent (the normalized temperature-scaled cross entropy loss)

 

提出的方法可总结为:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

 

 

实验

1. 投影头实验发现:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  1. 非线性投影比线性投影好(>3%),比不投影高很多(>10%
  2. 隐藏层在投影头前面比在层后面要好

 

2. NT-Xent损失与其它常用对比损失函数的比较(logistic lossmargin loss):

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  

3. 采用不同标签训练时的指标对比:

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

公众号 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

原文链接:https://www.cnblogs.com/BlogLwc/p/17337996.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities - Python技术站

(0)
上一篇 2023年4月22日
下一篇 2023年4月22日

相关文章

  • 积性函数求和:构造狄利克雷卷积将值域限定于powerful number

    前情提要:$O(n^{0.75}/\log n)$ 时间的积性函数求和。当 $n \ge 10^{12}$ 的时候需要十几秒出解。 如果积性函数的性质更好,那么我们可以更快地求和。 假设积性函数 $f$ 和易于求和的积性函数 $g$ 满足 $f(p)=g(p)$,且 $f=g*h$, $g*h$ 表示 $g, h$ 的狄利克雷卷积,也就是 $f(n)=\su…

    卷积神经网络 2023年4月7日
    00
  • 使用Keras和OpenCV完成人脸检测和识别

    一、数据集选择和实现思路 1、数据集说明:这里用到数据集来自于百度AI Studio平台的公共数据集,属于实验数据集,数据集本身较小因而会影响深度网络最终训练的准确率。数据集链接:[https://aistudio.baidu.com/aistudio/datasetdetail/8325]: 2、使用说明:数据集解压缩后有四类标注图像,此次只使用其中两类做…

    2023年4月5日
    00
  • pytorch与torchvision版本、tensorflow与keras版本

    pytorch==1.1.0 torchvision==0.3.0 pytorch==1.0.0 torchvision==0.2.1来源:https://pytorch.org/get-started/previous-versions/tensorflow2.1 keras2.3.1 python3.6来源:https://docs.floydhub.c…

    Keras 2023年4月6日
    00
  • [TensorFlow2.0]-正则化

    本人人工智能初学者,现在在学习TensorFlow2.0,对一些学习内容做一下笔记。笔记中,有些内容理解可能较为肤浅、有偏差等,各位在阅读时如有发现问题,请评论或者邮箱(右侧边栏有邮箱地址)提醒。若有小伙伴需要笔记的可复制的html或ipynb格式文件,请评论区留下你们的邮箱,或者邮箱(右侧边栏有邮箱地址)联系本人。

    2023年4月6日
    00
  • 《python机器学习—预测分析核心算法》:构建预测模型的一般流程

    参见原书1.5节 构建预测模型的一般流程 问题的日常语言表述->问题的数学语言重述重述问题、提取特征、训练算法、评估算法 熟悉不同算法的输入数据结构:1.提取或组合预测所需的特征2.设定训练目标3.训练模型4.评估模型在训练数据上的性能表现 机器学习:开发一个可以实际部署的模型的全部过程,包括对机器学习算法的理解和实际的操作 通常,有非常切实的原因,导…

    机器学习 2023年4月11日
    00
  • 关于卷积神经网络体系设计的理论实现

      卷积神经网络,简称CNN,常用于视觉图像分析的深度学习的人工神经网络。形象地来说,这些网络结构就是由生物的神经元抽象拟合而成的。正如,每个生物神经元可以相互通信一般,CNN根据输入产生类似的通信输出。   若要论CNN的起源,那大概就是1980年代初了,随着最近技术的迅猛进步和计算能力的不断强大,CNN就此流行起来。简而言之,CNN技术允许在合理的时间内…

    2023年4月8日
    00
  • 了解机器学习 只需了解“三大法宝”

    从综艺节目《危险边缘》(Jeopardy)的赢家和围棋大师,再到不光彩的、与广告有关的种族定性,我们似乎进入了一个人工智能发展飞速加快的时代。但是,要创造出这样一个完全有感知能力的人他的电子大脑能够利用公平的道德判断来完全参与复杂的认知任务,目前   从综艺节目《危险边缘》(Jeopardy)的赢家和围棋大师,再到不光彩的、与广告有关的种族定性,我们似乎进入…

    机器学习 2023年4月12日
    00
  • CRF keras代码实现

    这份代码来自于苏剑林   # -*- coding:utf-8 -*- from keras.layers import Layer import keras.backend as K class CRF(Layer): “””纯Keras实现CRF层 CRF层本质上是一个带训练参数的loss计算层,因此CRF层只用来训练模型, 而预测则需要另外建立模型,但…

    Keras 2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部