M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

摘要

 

提出SimCLR,用于视觉表征的对比学习,简化了最近提出的对比自监督学习算法,为了理解是什么使对比预测任务能够学习有用的表示,系统研究了提出框架的主要组成部分,发现:

1)数据增强的组成在定义有效的预测任务中起着关键的作用

2)在表示和对比损失之间引入一个可学习的非线性变换,大大提高了已学习表示的质量

3)与监督学习相比,对比学习受益于更大的批量规模和更多的训练步骤

SimCLR学习的自监督表示训练的线性分类器达到了76.5%top-1精度,比之前的技术水平提高了7%,与监督ResNet-50的性能相匹配。

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

方法

  1. 对比学习框架

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

随机采样一个minibatch的数据(N个样本),定义生成的增强样本对的对比预测任务,得到2N个数据点,给定一个正例对,将其它2(N-1)个增强样本当作负例,相似性度量采用余弦距离,则正例对(i,j)的损失函数为:

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

τ代表温度参数,最后的损失是计算所有正例样本对,包含(i,j)(j,i),称之为NT-Xent (the normalized temperature-scaled cross entropy loss)

 

提出的方法可总结为:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

 

 

实验

1. 投影头实验发现:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  1. 非线性投影比线性投影好(>3%),比不投影高很多(>10%
  2. 隐藏层在投影头前面比在层后面要好

 

2. NT-Xent损失与其它常用对比损失函数的比较(logistic lossmargin loss):

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  

3. 采用不同标签训练时的指标对比:

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

公众号 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

原文链接:https://www.cnblogs.com/BlogLwc/p/17337996.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities - Python技术站

(0)
上一篇 2023年4月22日
下一篇 2023年4月22日

相关文章

  • keras demo – fashion_mnist

    本文是TF给出的第一个关于keras的demo,以此来引出keras的基本用法和几个关键方法,也体会到了keras使用的方便。   一、数据集 demo中所用的数据集是fashion_mnist。是关于穿着物品的图片集。地址:https://github.com/zalandoresearch/fashion-mnist 数据集的特征: 训练数据60000个…

    Keras 2023年4月8日
    00
  • TensorFlow 算术运算符

    TensorFlow 算术运算符 TensorFlow 提供了几种操作,您可以使用它们将基本算术运算符添加到图形中。 tf.add tf.subtract tf.multiply tf.scalar_mul tf.div tf.divide tf.truediv tf.floordiv tf.realdiv tf.truncatediv tf.floor_d…

    tensorflow 2023年4月6日
    00
  • Keras.applications.models权重:存储路径及加载

    网络中断原因导致keras加载vgg16等模型权重失败, 直接解决方法是:删掉下载文件,再重新下载   Windows-weights路径: C:\Users\你的用户名\.keras\models Linux-weights路径: .keras/models/ 注意: linux中 带点号的文件都被隐藏了,需要查看hidden文件才能显示 Keras-Gi…

    Keras 2023年4月8日
    00
  • pytorch(一) 实现一个隐层的全连接神经网络

    torch.nn 实现 模型的定义,网络层的定义,损失函数的定义。 import torch # N is batch size; D_in is input dimension; # H is hidden dimension; D_out is output dimension. N, D_in, H, D_out = 64, 1000, 100, 10…

    PyTorch 2023年4月7日
    00
  • keras的一些例子理解

    来自我的个人网站: http://wangbch.com lstm_text_generation.py 基于LSTM的文本生成。采用的数据集是尼采的著作,可以采用其他语料库进行替换生成(如中文、学科论文、笑话语料库等) – 数据库载入和预处理 – 读取数据 – 将数据中的字符(chars)提取,如”\n”, “a”, “)”和空格等 – 构造字符和向量互换…

    2023年4月8日
    00
  • pytorch中修改后的模型如何加载预训练模型

    问题描述 简单来说,比如你要加载一个vgg16模型,但是你自己需要的网络结构并不是原本的vgg16网络,可能你删掉某些层,可能你改掉某些层,这时你去加载预训练模型,就会报错,错误原因就是你的模型和原本的模型不匹配。   此时有两种解决方法: 1、重新解析参数的字典,将预训练模型的参数提取出来,然后放在自己的模型中对应的位置 2、直接用原本的vgg16网络去加…

    PyTorch 2023年4月6日
    00
  • deeplearning—-卷积神经网络

    稀疏连接性 CNN通过增强相邻两层中神经元的局部的连接来发掘局部空间相关性. m层的隐输入单元和m-1层的一部分空间相邻,并具有连续可视野的神经元相连接. 它们的关系如下图所示:   我们可以假设m-1层为输入视网膜, 在它之上,m层的视觉神经元具有宽度为3的可视野,因此一个单元可以连接视网膜层的三个相邻的神经元. m层的神经元和m-1层具有类似的连接属性.…

    2023年4月8日
    00
  • 目标检测:SSD Single Shot MultiBox Detector

    内容来源于:https://blog.csdn.net/cdknight_happy/article/details/91994312https://blog.csdn.net/xiaohu2022/article/details/79833786https://blog.csdn.net/thisiszdy/article/details/89576389…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部