深度学习

  • 深度学习教程 | Seq2Seq序列模型和注意力机制

    本篇介绍自然语言处理中关于序列模型的高级知识,包括Sequence to sequence序列到序列模型和注意力机制。 作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/35 本文地址:http://www.showmeai.tech/article-detail/227 声明:版权所有,转载请联…

    深度学习 2023年4月12日
    00
  • 深度学习(四)之电影评论分类

    任务目标 对中文电影评论进行情感分类,实现测试准确率在\(83\%\)以上。本文采用了3种模型对电影评论进行分类,最终,模型在测试集的结果分别为: 模型 acc precision recall f1-score LSTM \(81.57\%\) [\(77.49\%\),\(86.69\%\)] [\(88.46\%\),\(74.87%\)] [\(82…

    深度学习 2023年4月12日
    00
  • 【深度学习 论文篇 01-1 】AlexNet论文翻译

    前言:本文是我对照原论文逐字逐句翻译而来,英文水平有限,不影响阅读即可。翻译论文的确能很大程度加深我们对文章的理解,但太过耗时,不建议采用。我翻译的另一个目的就是想重拾英文,所以就硬着头皮啃了。本文只作翻译,总结及代码复现详见后续的姊妹篇。 Alex原论文链接:https://proceedings.neurips.cc/paper/2012/file/c3…

    深度学习 2023年4月12日
    00
  • 深度学习(三)之LSTM写诗

    目录 数据预处理 构建数据集 模型结构 生成诗 根据上文生成诗 生成藏头诗 参考 根据前文生成诗: 机器学习业,圣贤不可求。临戎辞蜀计,忠信尽封疆。天子咨两相,建章应四方。自疑非俗态,谁复念鹪鹩。 生成藏头诗: 国步平生不愿君,古人今在古人风。 科公既得忘机者,白首空山道姓名。 大道不应无散处,未曾进退却还征。 环境: python:3.9.7 pytorc…

    深度学习 2023年4月12日
    00
  • Mxnet速查_CPU和GPU的mnist预测训练_模型导出_模型导入再预测_导出onnx并预测

    需要做点什么 方便广大烟酒生研究生、人工智障炼丹师算法工程师快速使用mxnet,所以特写此文章,默认使用者已有基本的深度学习概念、数据集概念。 系统环境 python 3.7.4mxnet 1.9.0mxnet-cu112 1.9.0onnx 1.9.0onnxruntime-gpu 1.9.0 数据准备 MNIST数据集csv文件是一个42000×785的…

    深度学习 2023年4月12日
    00
  • 一文看懂迁移学习:怎样用预训练模型搞定深度学习? ——重用神经网络的结构

    以上示例都是人类的迁移学习的能力。 迁移学习是什么? 所谓迁移学习,或者领域适应Domain Adaptation,一般就是要将从源领域(Source Domain)学习到的东西应用到目标领域(Target Domain)上去。源领域和目标领域之间往往有gap/domain discrepancy(源领域的数据和目标领域的数据遵循不同的分布)。 迁移学习能够…

    深度学习 2023年4月12日
    00
  • 深度学习的encoder和decoder

    所谓编码,就是将输入序列转化成一个固定长度的向量;解码,就是将之前生成的固定向量再转化成输出序列。

    深度学习 2023年4月12日
    00
  • 【转载】Deep Learning(深度学习)学习笔记整理系列

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0  2013-04-08 原文链接:http://blog.csdn.net/zouxy09/article/details/8775360/ 声明:作者原文可能是断断续续的写…

    深度学习 2023年4月12日
    00
  • 深度学习训练技巧—数据标准化、归一化、白化操作

    数据标准化的几种方法: 1.标准化:   数据标准化是指数据的各维度减均值除以标准差,这是最常用的标准化方法。   公式:(xi−μ)/σ 其中μ指的是样本的均值,σ指的是样本的标准差。 2.归一化:   数据归一化是指数据减去对应维度的最小值除以维度最大值减去维度最小值,这样做可以将数值压缩到[0,1]的区间。   公式:(xi−min(x))/(max(…

    深度学习 2023年4月12日
    00
  • How Do Vision Transformers Work?[2202.06709] – 论文研读系列(2) 个人笔记

    [论文简析]How Do Vision Transformers Work?[2202.06709] 论文题目:How Do Vision Transformers Work? 论文地址:http://arxiv.org/abs/2202.06709 代码:https://github.com/xxxnell/how-do-vits-work ICLR202…

    深度学习 2023年4月12日
    00
合作推广
合作推广
分享本页
返回顶部