深度学习

  • Keras/Python深度学习中的网格搜索超参数调优(附源码)

    2016-08-16 08:49:13 不系之舟913 阅读数 8883 文章标签: 深度学习 更多 分类专栏: 深度学习 机器学习   超参数优化是深度学习中的重要组成部分。其原因在于,神经网络是公认的难以配置,而又有很多参数需要设置。最重要的是,个别模型的训练非常缓慢。 在这篇文章中,你会了解到如何使用scikit-learn python机器学习库中的…

    深度学习 2023年4月9日
    00
  • 模型汇总24 – 深度学习中Attention Mechanism详细介绍:原理、分类及应用

    lqfarmer 深度学习研究员。欢迎扫描头像二维码,获取更多精彩内容。 946 人赞同了该文章 Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的机制(Mechanism),一般称为Attention Mechanism。Attention Mechanism目前非常流行,广泛应用于机器翻译、语…

    2023年4月9日
    00
  • 深度学习的这些坑你都遇到过吗?神经网络 11 大常见陷阱及应对方法

    深度学习的这些坑你都遇到过吗?神经网络 11 大常见陷阱及应对方法 2017-09-09 本文经授权转自新智元 来源:theorangeduck.com 作者:Daniel Holden 编译:刘小芹,文强   如果你的神经网络不工作,该怎么办?作者在这里列出了建神经网络时所有可能做错的事情,以及他自己的解决经验。   忘记规范化数据 忘记检查结果 忘记预处…

    深度学习 2023年4月9日
    00
  • (转载)深度剖析 | 可微分学习的自适配归一化 (Switchable Normalization)

    深度剖析 | 可微分学习的自适配归一化 (Switchable Normalization) 作者:罗平、任家敏、彭章琳 编写:吴凌云、张瑞茂、邵文琪、王新江 转自:知乎。原论文参考Github。   导读:归一化技术已经成为深度学习系统必不可少的重要组成部分,对优化神经网络的参数、提高泛化性能有着重要作用。这些归一化方法包括但不限于批归一化BN(Batch…

    2023年4月9日
    00
  • (转载)深度学习的weight initialization

    TLDR (or the take-away) Weight Initialization matters!!! 深度学习中的weight initialization对模型收敛速度和模型质量有重要影响! 在ReLU activation function中推荐使用Xavier Initialization的变种,暂且称之为He Initialization…

    2023年4月9日
    00
  • 文章预告的自我挖坑系列——时尚与深度学习

    开这一系列的坑是我一直以来都想做的事情,纯属个人兴趣吧。 看到过不少论文是将时尚产业(也就是服饰之类的)与深度学习相结合,所以开写一个此类文献学习的总结的小坑,如果后期实现了什么的,也会一起写上。 null

    深度学习 2023年4月9日
    00
  • 时尚与深度学习系列:Fashion forward: Forecasting visual style in fashion

           https://arxiv.org/pdf/1705.06394.pdf         将深度学习与时尚预测联系在一起,是一个很有趣但是估计结果会没什么成效的话题。因为,时尚预测这一领域,与股票金融房价之类的预测不一样,不是一个结合街区环境,经济环境,天气等客观情况就能预测综合走向的,而是依据某些fashion icon的主观性,时尚编辑的意…

    2023年4月9日
    00
  • Vmvare + Ubuntu 16.04环境搭建 + 相关软件安装配置笔记【深度学习】

    前言 由于学习与工作的需要,加上之前配置好的vmmachines都损坏了,我就重新弄一个ubuntu虚拟机,配置一下环境,给自己留个记录 1、文件 2、配置过程 1、在Vmware中新建虚拟机,自定义->稍后再安装操作系统,设置中选择自定义的ISO映像文件作为磁盘载入,进行安装 2、打开虚拟机,基本上按界面提示操作,安装完成再修改合适的分辨率 3、安装…

    2023年4月9日
    00
  • 训练深度学习网络时候,出现Nan 或者 震荡

    原因有多种,需要注意的是,要保证训练数据中没有脏数据,如果在training sample中出现了脏数据,那么在固定的迭代次数段,都会loss突然变nan,导致acc骤降,慢慢变0 https://www.zhihu.com/question/49346370 https://blog.csdn.net/VioletHan7/article/details/…

    2023年4月9日
    00
  • 深度学习attention 机制了解

    Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的机制(Mechanism),一般称为Attention Mechanism。Attention Mechanism目前非常流行,广泛应用于机器翻译、语音识别、图像标注(Image Caption)等很多领域,之所以它这么受欢迎,是因为Attenti…

    2023年4月9日
    00
合作推广
合作推广
分享本页
返回顶部