一、tf.Variables()
import tensorflow as tf Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0)) sess = tf.Session() init = tf.global_variables_initializer() sess.run(init) sess.run(Weights) tf.Variable()与tf.get_variable()区别 使用tf.Variable时,如果检测到命名冲突,系统会自己处理。使用tf.get_variable()时,系统不会处理冲突,而会报错 w_1 = tf.Variable(3, name="w_1") w_2 = tf.Variable(1, name="w_1") print(w_1.name) print(w_2.name) #输出 #w_1:0 #w_1_1:0,由于命名相同,系统自行处理 w_1 = tf.get_variable(name="w_1",initializer=1) w_2 = tf.get_variable(name="w_1",initializer=2) #会报错,因为名字相同错误信息 #ValueError: Variable w_1 already exists, disallowed. Did #you mean to set reuse=True in VarScope?
tf.Variable() 使用TF在默认的图中创建节点,这个节点是一个变量。Variable第一个参数表示初始化的值,如:state = tf.Variable(0 , name='counter')
tf.get_variable():和tf.Variable最大的区别在于tf.Variable的变量名是一个可选项,通过name=’v’的形式给出。但是tf.get_variable必须指定变量名
tf.random_uniform():生成的值在该 [minval, maxval) 范围内遵循均匀分布。下限 minval 包含在范围内,而上限 maxval 被排除在外
tf.random_normal():函数用于从服从指定正态分布的数值中取出指定个数的值。tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
shape: 输出张量的形状,必选,如shape = ([2, 3])
mean: 正态分布的均值,默认为0
stddev: 正态分布的标准差,默认为1.0
dtype: 输出的类型,默认为tf.float32
seed: 随机数种子,是一个整数,当设置之后,每次生成的随机数都一样
name: 操作的名称
tf.truncated_normal():
tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。这个函数产生正太分布,均值和标准差自己设定
这是一个截断的产生正太分布的函数,就是说产生正太分布的值如果与均值的差值大于两倍的标准差,那就重新生成
和一般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差,但是一般的别的函数是可能的
# -*- coding: utf-8 -*-) import tensorflow as tf w1 = tf.Variable(tf.random_normal([2, 3], stddev=1, seed=1)) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) # sess.run(tf.initialize_all_variables()) #比较旧一点的初始化变量方法 print(w1) print(sess.run(w1)) ''' Tensor("Variable/read:0", shape=(2, 3), dtype=float32) [[-0.8113182 1.4845988 0.06532937] [-2.4427042 0.0992484 0.5912243 ]] '''
二、tf.Session()
import tensorflow matrix1 = tf.constant([[3,3]])#一行两列 matrix2 = tf.constant([[2],[2]])#两行一列 product = tf.matmul(matrix1, matrix2) sess = tf.Session() result = sess.run(product) print(result) #[[12]]
tf.Sess()称之为会话的上下文,用于执行图。
三、tf.placehold()
input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) output = tf.mul(input1, input2)#乘法 with tf.Session() as sess: print(sess.run(output, feed_dict={input1:[7], input2:[2]})) #在sess.run()的时候用feed_dict来给变量赋值
占位符:tf.placeholder 告诉系统,这里有一个值/向量/矩阵,现在我没法给你具体数值,不过我正式运行的时候会补上的!
tf.clip_by_value(A, min, max):把张量A中每一个元素值都限制在min和max之间。小于min的让它等于min,大于max的让它等于max。在min和max之间的保持不变
import tensorflow as tf import numpy as np A = np.array([[1,1,2,4], [3,4,8,5]]) with tf.Session() as sess: print(sess.run(tf.clip_by_value(A, 2, 5))) ''' [[2 2 2 4] [3 4 5 5]] '''
五、tf.get_default_graph()
import tensorflow as tf a = tf.constant( [1.0, 2.0], name='a' ) a.graph #<tensorflow.python.framework.ops.Graph object at 0x000000001FBEED30> tf.get_default_graph() #<tensorflow.python.framework.ops.Graph object at 0x000000001FBEED30> b = tf.constant( [3.0, 4.0], name='b' ) b.graph #<tensorflow.python.framework.ops.Graph object at 0x000000001FBEED30> c = a + b c.graph #<tensorflow.python.framework.ops.Graph object at 0x000000001FBEED30> #从上面的看:a,b,c都在一张计算图上,即默认的计算图
六、tf.Graph()
import tensorflow as tf g1 = tf.Graph() with g1.as_default():#设g1为默认图 #在计算图g1中定义变量"v",并设置初始值为0,shape指定变量维度 v = tf.get_variable( 'v', shape=[1], initializer=tf.zeros_initializer( ) ) g2 = tf.Graph()#生成新的计算图 with g2.as_default():#设g2为默认图 #在计算图g2中定义变量"v",并设置初始值为1 v = tf.get_variable( 'v',shape=[1], initializer=tf.ones_initializer() ) #在计算图g1中读取变量'v'的取值 with tf.Session( graph=g1 ) as sess: tf.global_variables_initializer().run() with tf.variable_scope('', reuse=True): #在计算图g1中,变量'v'的取值应该为0,所以下面这行会输出[0.] print( sess.run(tf.get_variable('v')) ) #在计算图g2中读取变量'v'的取值 with tf.Session(graph=g2) as sess: tf.global_variables_initializer().run() with tf.variable_scope('', reuse=True): #在计算图g2中,变量'v'的取值应该为1,所以下面这行会输出[1.] print(sess.run(tf.get_variable('v')))
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:Tensorflow基本语法 - Python技术站