在 TensorFlow 中,tf.placeholder()
函数的作用是声明一个占位符(placeholder),用于后面填充数据。就是我们在定义模型时,还不确定所需要的数据,就可以先通过占位符表示,最后再动态赋值。占位符本身不存储数值,其主要作用在于接收后面传递的数据,并协助程序构建计算图的形状。
语法格式
tf.placeholder(dtype, shape=None, name=None)
参数含义:
- dtype:定义数据类型,比如:tf.float32、tf.float64、tf.int32等等。
- shape:定义形状(或表示数据的维度)。可以指定其为一个列表或元组(shape=[None, 32]表示第一维为None,第二维为32),或者一个tf.TensorShape对象。
- name:占位符的名称(可选)。
使用方法
在模型的构建中,我们可以根据不同的需要动态地将不同数据输入到模型中。这些数据可以使用 TensorFlow 中的 tf.placeholder()
作为占位符,在运行时再用真实的数据来填充。
import tensorflow as tf
# 定义一个占位符,数据类型为32位浮点型,形状为2行3列
input_placeholder = tf.placeholder(tf.float32, shape=[2, 3])
# 定义一个矩阵乘法的计算图
output = tf.matmul(input_placeholder, [[2.0], [3.0], [4.0]])
with tf.Session() as sess:
# 运行计算图并向占位符中填充数据
result = sess.run(output, feed_dict={input_placeholder: [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]})
print(result)
这个例子中,我们定义了一个占位符 input_placeholder
,形状为2行3列。然后,我们通过 tf.matmul()
定义了一个矩阵乘法计算图,将占位符的值作为一个参数传递进去。在会话中,我们可以使用 feed_dict
参数来填充占位符的值,并用 sess.run()
运行计算图。因此,输出结果就是:
[[20.]
[47.]]
从结果可以看出,我们已经成功地将带有参数的计算图应用到了传递的数据上。
示例
例1: 使用占位符定义一个两个变量之和的计算图。
import tensorflow as tf
# 定义两个占位符,数据类型为32位浮点型
a = tf.placeholder(tf.float32)
b = tf.placeholder(tf.float32)
# 定义一个计算图,计算两个占位符的和
result = tf.add(a, b)
with tf.Session() as sess:
# 使用feed_dict参数填充占位符,并计算结果
print(sess.run(result, feed_dict={a: 3.0, b: 4.5}))
print(sess.run(result, feed_dict={a: [1.0, 2.0], b: [2.0, 4.0]}))
这个例子中,我们定义了两个占位符 a
和 b
,并使用 tf.add()
建立计算图,计算 a
和 b
的和。在会话中,我们使用 feed_dict
参数分别将 3.0
和 4.5
,以及 [1.0, 2.0]
和 [2.0, 4.0]
分别传递给 a
和 b
,计算结果如下:
7.5
[3. 6.]
例2: 使用占位符完成一个线性回归的计算图。
import tensorflow as tf
import numpy as np
# 模拟一些训练样本
x_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168], [9.779], [6.182], [7.59], [2.167], [7.042], [10.791],
[5.313], [7.997], [5.654], [9.27], [3.1]], dtype=np.float32)
y_train = np.array([[1.7], [2.76], [2.09], [3.19], [1.694], [1.573], [3.366], [2.596], [2.53], [1.221], [2.827], [3.465],
[1.65], [2.904], [2.42], [2.94], [1.3]], dtype=np.float32)
# 定义占位符,用于输入训练数据(x,y)
x = tf.placeholder(dtype=tf.float32, shape=[None, 1])
y = tf.placeholder(dtype=tf.float32, shape=[None, 1])
# 定义模型参数W和b
W = tf.Variable(tf.random_normal(shape=[1, 1]))
b = tf.Variable(tf.zeros(shape=[1, 1]))
# 定义计算图,计算预测值
predict = tf.matmul(x, W) + b
# 定义损失函数
loss = tf.reduce_mean(tf.square(y - predict))
# 定义优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.003)
# 定义训练节点
train_op = optimizer.minimize(loss)
# 定义会话,进行训练
with tf.Session() as sess:
# 初始化全局变量
sess.run(tf.global_variables_initializer())
# 进行1000步训练
for i in range(1000):
_, train_loss, train_W, train_b = sess.run([train_op, loss, W, b], feed_dict={x: x_train, y: y_train})
if (i + 1) % 50 == 0:
print('step %d: training loss = %.4f, W = %.4f, b = %.4f' % (i + 1, train_loss, train_W, train_b))
这个例子中,我们使用占位符来接收 x_train
和 y_train
的数据,并在计算图中定义了线性回归的模型,同时定义了损失函数及其优化器。在会话中,我们使用 feed_dict
参数传递 x_train
和 y_train
的数据,进行训练并输出结果。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:详解TensorFlow的 tf.placeholder 函数:创建一个占位符张量 - Python技术站