深度学习

  • 吴恩达深度学习笔记(七) —— Batch Normalization

      主要内容: 一.Batch Norm简介 二.归一化网络的激活函数 三.Batch Norm拟合进神经网络 四.测试时的Batch Norm     一.Batch Norm简介 1.在机器学习中,我们一般会对输入数据进行归一化处理,使得各个特征的数值规模处于同一个量级,有助于加速梯度下降的收敛过程。 2.在深层神经网络中,容易出现梯度小时或者梯度爆炸的…

    深度学习 2023年4月13日
    00
  • 吴恩达深度学习笔记(九) —— FaceNet

      主要内容: 一.FaceNet人脸识别简介 二.使用神经网络对人脸进行编码 三.代价函数triple loss 四.人脸库 五.人脸认证与人脸识别     一.FaceNet简介 1.FaceNet是一个深层神经网络,它将人脸编码成一个含有128个数的向量。通过比较两张人脸编码后的向量,可以判定两张人脸是否属于同一个人。 2.FaceNet的代价函数叫做…

    深度学习 2023年4月13日
    00
  • 【python深度学习】KS,KL,JS散度 衡量两组数据是否同分布

    目录 KS(不需要两组数据相同shape) JS散度(需要两组数据同shape) 奇怪之处:有的地方也叫KL KS距离,相对熵,KS散度 当P(x)和Q(x)的相似度越高,KS散度越小 KS散度主要有两个性质: (1)不对称性 不对称性尽管KL散度从直观上是个度量或距离函数,但它并不是一个真正的度量或者距离,因为它不具有对称性,即D(P||Q)!=D(Q||…

    深度学习 2023年4月13日
    00
  • 深度学习之numpy.poly1d()函数

    1、np.poly1d()此函数有两个参数:   参数1:为一个数组,若没有参数2,则生成一个多项式,例如:       p = np.poly1d([2,3,5,7])          print(p)    ==>>2×3 + 3×2 + 5x + 7    数组中的数值为coefficient(系数),从后往前 0,1,2.。。为位置书的…

    深度学习 2023年4月13日
    00
  • AI_深度学习为何兴起?

    深度学习和神经网络,在此技术背后的理念,已经发展了好几十年了,为何现在流行起来了?   最直接因素:     将帮助你在自己的组织中,发现好机会,来应用这些东西 为什么深度学习这么厉害?      x轴表示完成任务的数据数量,y轴代表机器学习算法的性能,比如垃圾邮件过滤的准确率、广告点击预测的准确率、用于人工智能判断其他车辆的位置的神经网络准确率   传统机…

    深度学习 2023年4月13日
    00
  • 深度学习-InfoGAN论文理解笔记

    在弄清楚InfoGAN之前,可以先理解一下变分推断目的以及在概率论中的应用与ELBO是什么,以及KL散度 https://blog.csdn.net/qy20115549/article/details/93074519 https://blog.csdn.net/qy20115549/article/details/86644192。 如果理解了变分推断,…

    深度学习 2023年4月13日
    00
  • kaggle竞赛 使用TPU对104种花朵进行分类 第十八次尝试 99.9%准确率 中文注释【深度学习TPU+Keras+Tensorflow+EfficientNetB7】

    目录 排行榜分数 最终排名 比赛过后的一点心得 前言 版本更新情况 1. 安装efficientnet 2. 导入需要的包 3. 检测TPU和GPU 4. 配置TPU、访问路径等 5. 各种函数 5.1. 可视化函数 5.2. 数据集函数 5.3. 模型函数 6. 数据集可视化 7. 训练模型 7.1. 创建模型并加载到TPU 7.2. 训练模型 7.3. …

    深度学习 2023年4月13日
    00
  • 【深度学习笔记】第 4 课:模型性能评估

    training set 训练集  validation set 验证集  test set测试集  这些与衡量你做的怎么样有关 当你知道怎么衡量你在一个问题的表现,问题就解决了一半。(衡量表现的重要性) 每个你将建立的分类器都会尝试记住训练集,并且它通常在这方面会做的很好很好 你的工作 是帮助它泛化到新的数据上 所以我们怎么用测量泛化能力代替测量分类其记住…

    深度学习 2023年4月13日
    00
  • 深度学习中的batch_size、epoch和iterations

    在进行模型训练的时候经常会遇到这三个参数:batch_size、epoch和iterations,那么它们之间的关系是怎样的呢? 首先,产生的原因主要是: 1. 原本的大批量梯度下降训练时,每次要处理完所有数据才更新梯度和损失值,需要的时间太长,计算开销大。 2. 但是呢,每次计算一个数据,就更新一次损失值和梯度值,虽然速度快,但是不容易收敛,而且不一定找到…

    深度学习 2023年4月13日
    00
  • 深度学习原理与框架-神经网络-线性回归与神经网络的效果对比 1.np.c_[将数据进行合并] 2.np.linspace(将数据拆成n等分) 3.np.meshgrid(将一维数据表示为二维的维度) 4.plt.contourf(画出等高线图,画算法边界)

    1. np.c[a, b]  将列表或者数据进行合并,我们也可以使用np.concatenate 参数说明:a和b表示输入的列表数据 2.np.linspace(0, 1, N) # 将0和1之间的数分成N份 参数说明:0表示起始数据,1表示末尾数据,N表示生成的分数 3.xx, yy = np.meshgrid(np.arange(x.min(), x.m…

    深度学习 2023年4月13日
    00
合作推广
合作推广
分享本页
返回顶部