M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

yizhihongxing

 

摘要

 

提出SimCLR,用于视觉表征的对比学习,简化了最近提出的对比自监督学习算法,为了理解是什么使对比预测任务能够学习有用的表示,系统研究了提出框架的主要组成部分,发现:

1)数据增强的组成在定义有效的预测任务中起着关键的作用

2)在表示和对比损失之间引入一个可学习的非线性变换,大大提高了已学习表示的质量

3)与监督学习相比,对比学习受益于更大的批量规模和更多的训练步骤

SimCLR学习的自监督表示训练的线性分类器达到了76.5%top-1精度,比之前的技术水平提高了7%,与监督ResNet-50的性能相匹配。

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

方法

  1. 对比学习框架

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

随机采样一个minibatch的数据(N个样本),定义生成的增强样本对的对比预测任务,得到2N个数据点,给定一个正例对,将其它2(N-1)个增强样本当作负例,相似性度量采用余弦距离,则正例对(i,j)的损失函数为:

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

τ代表温度参数,最后的损失是计算所有正例样本对,包含(i,j)(j,i),称之为NT-Xent (the normalized temperature-scaled cross entropy loss)

 

提出的方法可总结为:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

 

 

实验

1. 投影头实验发现:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  1. 非线性投影比线性投影好(>3%),比不投影高很多(>10%
  2. 隐藏层在投影头前面比在层后面要好

 

2. NT-Xent损失与其它常用对比损失函数的比较(logistic lossmargin loss):

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  

3. 采用不同标签训练时的指标对比:

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

公众号 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

原文链接:https://www.cnblogs.com/BlogLwc/p/17337996.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities - Python技术站

(0)
上一篇 2023年4月22日
下一篇 2023年4月22日

相关文章

  • GPT4有那么可怕吗?

    一封联合信   3月22号也就是一个月前,马斯克,对你没听错,就是前几天发射火箭失败爆炸的那个,他联合几千名科学家用一封公开信请愿暂停一切大型AI实验半年以上,这六个月的时间是用来做一份监督和规范AI发展的协议,避免AI的发展走向极端,超出人类的控制。   现在这封公开信已经有超过3万人参与实名请愿。请愿名单里面不仅有图灵奖得主,马斯克,还有各大科技公司总裁…

    人工智能概论 2023年4月25日
    00
  • 循环神经网络(RNN)原理 RNN项目

    我们之前所学的全连接神经网络(DNN)和卷积神经网络(CNN),他们的前一个输入和后一个输入是没有关系的。但是当我们处理序列信息的时候,某些前面的输入和后面的输入是有关系的,比如:当我们在理解一句话意思时,孤立的理解这句话的每个词是不够的,我们需要处理这些词连接起来的整个序列;这个时候我们就需要使用到循环神经网络(Recurrent Neural Netwo…

    2023年4月7日
    00
  • caffe的调试技巧 和 使用split层

    1.网络中的layer层的输出,只要没有作为其他层的输入,caffe的日志就会把这个top输出(如果你用那个网站画网络结构图,你也会发现这种情况的层的颜色是不一样的,是紫色的) 2.如果你想看某一层在网络中的输出。比如你想看datalayer层的label输出,但你同时还是想把label输入到后面的网络中。    同时完成这两项任务,可以使用split层,s…

    Caffe 2023年4月8日
    00
  • pip 安装pytorch 命令

    pip install torch===1.2.0 torchvision===0.4.0 -f https://download.pytorch.org/whl/torch_stable.html

    PyTorch 2023年4月7日
    00
  • 机器学习算法分类以及开发流程

    监督学习:特征值+目标值非监督学习:特征值 分类:目标值为离散型回归:目标值为连续型   开发流程:类似于数学建模的过程  

    机器学习 2023年4月10日
    00
  • Anchor-free目标检测综述 — Keypoint-based篇

      早期目标检测研究以anchor-based为主,设定初始anchor,预测anchor的修正值,分为two-stage目标检测与one-stage目标检测,分别以Faster R-CNN和SSD作为代表。后来,有研究者觉得初始anchor的设定对准确率的影响很大,而且很难找到完美的预设anchor,于是开始不断得研究anchor-free目标检测算法,意…

    2023年4月8日
    00
  • Tensorflow教程

    中文社区 tensorflow笔记:流程,概念和简单代码注释 TensorFlow入门教程集合 tensorboard教程:2017 TensorFlow 开发者峰会 TensorBoard轻松实践   文字教程 这里下载MNIST数据集 http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/…

    tensorflow 2023年4月8日
    00
  • keras写的代码训练过程中loss出现Nan

    损失函数是通过keras已经封装好的函数进行的线性组合, 如下: def spares_mse_mae_2scc(y_true, y_pred):    return mean_squared_error(y_true, y_pred) + categorical_crossentropy(y_true, y_pred) + 2 * mean_absolut…

    Keras 2023年4月6日
    00
合作推广
合作推广
分享本页
返回顶部