M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

摘要

 

提出SimCLR,用于视觉表征的对比学习,简化了最近提出的对比自监督学习算法,为了理解是什么使对比预测任务能够学习有用的表示,系统研究了提出框架的主要组成部分,发现:

1)数据增强的组成在定义有效的预测任务中起着关键的作用

2)在表示和对比损失之间引入一个可学习的非线性变换,大大提高了已学习表示的质量

3)与监督学习相比,对比学习受益于更大的批量规模和更多的训练步骤

SimCLR学习的自监督表示训练的线性分类器达到了76.5%top-1精度,比之前的技术水平提高了7%,与监督ResNet-50的性能相匹配。

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

方法

  1. 对比学习框架

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

随机采样一个minibatch的数据(N个样本),定义生成的增强样本对的对比预测任务,得到2N个数据点,给定一个正例对,将其它2(N-1)个增强样本当作负例,相似性度量采用余弦距离,则正例对(i,j)的损失函数为:

 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

τ代表温度参数,最后的损失是计算所有正例样本对,包含(i,j)(j,i),称之为NT-Xent (the normalized temperature-scaled cross entropy loss)

 

提出的方法可总结为:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

 

 

实验

1. 投影头实验发现:

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  1. 非线性投影比线性投影好(>3%),比不投影高很多(>10%
  2. 隐藏层在投影头前面比在层后面要好

 

2. NT-Xent损失与其它常用对比损失函数的比较(logistic lossmargin loss):

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

  

3. 采用不同标签训练时的指标对比:

 M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

公众号 

M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities

 

原文链接:https://www.cnblogs.com/BlogLwc/p/17337996.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:M3AE: Multimodal Representation Learning for Brain Tumor Segmentation with Missing Modalities - Python技术站

(0)
上一篇 2023年4月22日
下一篇 2023年4月22日

相关文章

  • 在Keras中使用tensorboard可视化acc等曲线

    1.使用tensorboard可视化ACC,loss等曲线 1 keras.callbacks.TensorBoard(log_dir=’./Graph’, 2 histogram_freq= 0 , 3 write_graph=True, 4 write_images=True) 5 tbCallBack = keras.callbacks.TensorB…

    Keras 2023年4月7日
    00
  • 循环神经网络之LSTM

    1、从LSTM的经典图入手 可以看到中间的 cell 里面有四个黄色小框:– 每一个小黄框代表一个前馈网络层,其实就是经典的神经网络的结构– 这个cell神经元个数和隐藏层个数皆可以设置– 其中1、2、4层的**函数是 sigmoid,第三层的**函数是 tanh。 2、对LSTM的理解 1)、cell 的状态是一个向量,是有多个值的 — cell在…

    2023年4月6日
    00
  • 深度学习-目标检测(物体检测)

    深度学习 目标检测 物体检测 NI-DL 应用框架:图像分类,目标检测,分割提取。 底层:TensorFlow,Keras,Cuda,C/C++ 上层:VC++,C#.NET Winform 源码编译,支持本地部署,云部署。   图像分类:点击查看 目标检测:点击查看 (本文) 图像分割:点击查看     【物体检测】 识别图中包含的每个物体的位置、名称类别…

    2023年4月8日
    00
  • 《机器学习基石》—验证

    本节涉及的知识点: (1)用验证来选择参数和模型; (2)验证的流程; (3)验证集大小的选择; (4)留一交叉验证的流程; (5)留一交叉验证的理论保证; (6)留一交叉验证的缺点; (7)k折交叉验证的流程。   我们可以用验证来从如下的组合中做选择:   验证的流程是:先划分训练集Dt和验证集Dv,在训练集上选择不同的模型和参数做训练,得到不同的模型。…

    机器学习 2023年4月12日
    00
  • win10配置cuda和pytorch

    简介 pytorch是非常流行的深度学习框架。下面是Windows平台配置pytorch的过程。 一共需要安装cuda、pycharm、anancoda、pytorch。 主要介绍cuda和pytorch的安装。 安装cuda 1. 根据自己的显卡,选择合适的cuda版本。 百度输入CUDA,进入官网下载。 下载结束后,进行安装。 安装结束后,自动弹出此窗口…

    2023年4月8日
    00
  • 别玩手机 图像分类比赛

    浙大宁波理工学院数据科学与大数据专业 别玩手机图像分类比赛 1 选手禁止互相抄袭,发现结果雷同者将取消成绩; 2 请在基线模型基础上修改代码,不允许使用第三方封装库、套件或者其他工具,否则做 0 分处理; 3 每位同学请独立完成比赛,不允许就比赛技术问题进行相互交流,更不允许索要代码,请自觉遵守规则,保持良好的品格; 4 晚上 12:00 以后不允许递交,否…

    人工智能概论 2023年5月10日
    00
  • 什么是卷积convolution

    定义 卷积是两个变量在某范围内相乘后求和的结果。如果卷积的变量是序列x(n)和h(n),则卷积的结果 , 其中星号*表示卷积。 当时序n=0时,序列h(-i)是h(i)的时序i取反的结果;时序取反使得h(i)以纵轴为中心翻转180度,所以这种相乘后求和的计算法称为卷积和,简称卷积。 另外,n是使h(-i)位移的量,不同的n对应不同的卷积结果。   如果卷积的…

    2023年4月8日
    00
  • tensorflow 2.0 学习 (八) keras模块的认识

    # encoding :utf-8 import tensorflow as tf from tensorflow import keras # 导入常见网络层, sequential容器, 优化器, 损失函数 from tensorflow.keras import layers, Sequential, optimizers, losses, metri…

    Keras 2023年4月6日
    00
合作推广
合作推广
分享本页
返回顶部