版权声明:本文为博主原创文章,转载请注明出处: https://blog.csdn.net/Hubz131/article/details/80096237
一、函数展示:
def Weight(shape): init = tf.random_normal(shape,stddev=0.01) return tf.Variable(init) def Bias(shape): return tf.Variable(tf.random_normal(shape)) def conv2d(x, W): return tf.nn.conv2d(x, W, strides=[1,1,1,1], padding='SAME') def maxPool(x): return tf.nn.max_pool(x, ksize=[1,2,2,1], strides=[1,2,2,1], padding='SAME') def dropout(x, keep): return tf.nn.dropout(x, keep)
1.tf.random_normal()
def random_normal(shape,mean=0.0,stddev=1.0,dtype=dtypes.float32,seed=None,name=None)从正态分布中输出随机值。
参数:
shape: 一维的张量,也是输出的张量。
mean: 正态分布的均值。
stddev: 正态分布的标准差。
dtype: 输出的类型。
seed: 一个整数,当设置之后,每次生成的随机数都一样。
name: 操作的名字。
import tensorflow as tf with tf.Session() as sess: shape = [10] s = tf.random_normal(shape,stddev=0.01) print(sess.run(s)) #输出 [-1.5217212e-03 -6.1807544e-03 -9.0085909e-05 3.5682449e-03 -2.4051435e-02 -4.6246415e-03 2.3837769e-02 8.5584261e-03 -2.3923095e-03 -1.4737996e-02]
2.tf.Variable()
import tensorflow as tf with tf.Session() as sess: shape = [10] s = tf.random_normal(shape,stddev=0.01) ver = tf.Variable(s) init = tf.global_variables_initializer() sess.run(init) print(s) print(ver) print(sess.run(ver)) Tensor("random_normal:0", shape=(10,), dtype=float32) <tf.Variable 'Variable:0' shape=(10,) dtype=float32_ref> [-0.0005947 -0.00067255 -0.00474246 0.0180191 0.00285503 0.00240912 0.00317447 0.00197305 0.0121715 -0.00762024]在TensorFlow中,tf.Variable()函数创建变量,过程是输入一个 张量,返回一个 变量。声明变量后 需要初始化变量。
3.tf.nn.conv2d(): 详细介绍
4.tf.nn.max_pool():详细介绍
5.tf.nn.dropout():详细介绍
6.tf.nn.relu():详细介绍
####未编辑完成,博客出现问题,无法保存为草稿#####