TensorFlow神经网络学习之张量与变量概念

TensorFlow神经网络学习之张量与变量概念

TensorFlow是一个流行的机器学习框架,它使用张量和变量来表示数据和模型参数。本攻略将介绍TensorFlow中的张量和变量概念,并提供两个示例。

张量

张量是TensorFlow中的基本数据类型,它可以表示标量、向量、矩阵和更高维度的数组。以下是一些常见的张量:

  • 标量:只有一个元素的张量。
  • 向量:一维数组。
  • 矩阵:二维数组。
  • 三维张量:三维数组。
  • 更高维度的张量:可以有任意数量的维度。

在TensorFlow中,张量可以使用tf.Tensor类来表示。以下是一个示例:

import tensorflow as tf

# 创建一个标量
a = tf.constant(1)

# 创建一个向量
b = tf.constant([1, 2, 3])

# 创建一个矩阵
c = tf.constant([[1, 2], [3, 4]])

# 创建一个三维张量
d = tf.constant([[[1, 2], [3, 4]], [[5, 6], [7, 8]]])

在这个示例中,我们使用tf.constant函数创建了不同维度的张量。

变量

变量是TensorFlow中的另一个重要概念,它可以用来表示模型参数。在TensorFlow中,变量可以使用tf.Variable类来表示。以下是一个示例:

import tensorflow as tf

# 创建一个变量
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))

在这个示例中,我们使用tf.Variable函数创建了两个变量W和b。

示例1:使用张量进行简单的线性回归

以下是示例步骤:

  1. 导入必要的库。

python
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt

  1. 准备数据。

python
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data * 0.1 + 0.3

  1. 定义模型。

python
W = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
b = tf.Variable(tf.zeros([1]))
y = W * x_data + b
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

  1. 训练模型。

python
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
for step in range(201):
sess.run(train)
if step % 20 == 0:
print(step, sess.run(W), sess.run(b))

  1. 绘制结果。

python
plt.plot(x_data, y_data, 'ro', label='Original data')
plt.plot(x_data, sess.run(W) * x_data + sess.run(b), label='Fitted line')
plt.legend()
plt.show()

在这个示例中,我们演示了如何使用张量进行简单的线性回归。

示例2:使用变量进行手写数字识别

以下是示例步骤:

  1. 导入必要的库。

python
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.examples.tutorials.mnist import input_data

  1. 准备数据。

python
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

  1. 定义模型。

python
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder(tf.float32, [None, 10])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)

  1. 训练模型。

python
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))

在这个示例中,我们演示了如何使用变量进行手写数字识别。

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:TensorFlow神经网络学习之张量与变量概念 - Python技术站

(0)
上一篇 2023年5月15日
下一篇 2023年5月15日

相关文章

  • tensorflow学习之路—简单的代码

    import numpyimport tensorflow as tf #自己创建的数据x_data = numpy.random.rand(100).astype(numpy.float32)#创建具有100个元素的数组y_data = x_data*0.1+0.3#具有自动遍历的功能   ##设置神经网络的结构###Weights = tf.Variab…

    tensorflow 2023年4月6日
    00
  • tensorFlow-深度学习训练并行模式

    1.简介 TensorFlow可以很容易地利用单个GPU加速深度学习模型的训练过程,但要利用更多的GPU或者机器,需要了解如何并行化训练深度学习模型。常用的并行化深度学习模型训练方式有两种,同步模式和异步模式。 2.两种模式的区别 为帮助读者理解这两种训练模式,首先简单回顾一下如何训练深度学习模型。下图展示了深度学习模型的训练流程图。深度学习模型的训练是一个…

    2023年4月8日
    00
  • tensorflow 基础学习四:神经网络优化算法

    指数衰减法: 公式代码如下: decayed_learning_rate=learning_rate*decay_rate^(global_step/decay_steps)   变量含义:   decayed_learning_rate:每一轮优化时使用的学习率   learning_rate:初始学习率   decay_rate:衰减系数   decay…

    tensorflow 2023年4月5日
    00
  • tensorflow学习笔记四:mnist实例–用简单的神经网络来训练和测试

    刚开始学习tf时,我们从简单的地方开始。卷积神经网络(CNN)是由简单的神经网络(NN)发展而来的,因此,我们的第一个例子,就从神经网络开始。 神经网络没有卷积功能,只有简单的三层:输入层,隐藏层和输出层。 数据从输入层输入,在隐藏层进行加权变换,最后在输出层进行输出。输出的时候,我们可以使用softmax回归,输出属于每个类别的概率值。借用极客学院的图表示…

    2023年4月8日
    00
  • Tensorflow小技巧:TF_CPP_MIN_LOG_LEVEL

    #pythonimport os import tensorflow as tf os.environ[‘TF_CPP_MIN_LOG_LEVEL’] = ‘2’ # or any {‘0’, ‘1’, ‘3’} #C++: (In Terminal) export TF_CPP_MIN_LOG_LEVEL=2 TF_CPP_MIN_LOG_LEVEL默认值…

    tensorflow 2023年4月7日
    00
  • win10 python 3.7 pip install tensorflow

    环境: ide:pyCharm 2018.3.2 pyhton3.7 os:win10 64bit 步骤: 1.确认你的python有没有装pip,有则直接跳2。无则cmd到python安装目录下easy_install-3.7.exe pip。 2.下载https://storage.googleapis.com/tensorflow/windows/gp…

    2023年4月6日
    00
  • TensorFlow中两种多分类损失函数categorical_crossentropy和sparse_categorical_crossentropy间的区别

    TensorFlow中,categorical_crossentropy和sparse_categorical_crossentropy都是交叉熵损失函数,它们的数学意义相同,区别仅在于适用于不同的类别标签编码格式。 当输入数据的类别标签采用独热编码(OneHot Encoding)格式时,模型应采用 categorical_crossentropy 损失函…

    tensorflow 2023年4月8日
    00
  • TensorFlow的权值更新方法

    TensorFlow是当前最流行的深度学习框架之一,其能够自动地根据损失函数对网络中的权值进行自动的更新。本文将详细讲解TensorFlow中权值的更新方法,包括基于梯度下降法的优化器、学习率的设置、正则化等内容。 1. 基于梯度下降法的优化器 TensorFlow中最常用的权值更新方法就是基于梯度下降法(Gradient Descent),即根据损失函数对…

    tensorflow 2023年5月17日
    00
合作推广
合作推广
分享本页
返回顶部