CNN部分函数解析

版权声明:本文为博主原创文章,转载请注明出处: https://blog.csdn.net/Hubz131/article/details/80096237

一、函数展示:

def Weight(shape):  
   init = tf.random_normal(shape,stddev=0.01)  
   return tf.Variable(init)  
  
def Bias(shape):  
   return tf.Variable(tf.random_normal(shape))  
  
def conv2d(x, W):  
   return tf.nn.conv2d(x, W, strides=[1,1,1,1], padding='SAME')  
  
def maxPool(x):  
   return tf.nn.max_pool(x, ksize=[1,2,2,1], strides=[1,2,2,1], padding='SAME')  
  
def dropout(x, keep):  
   return tf.nn.dropout(x, keep)

1.tf.random_normal()

def random_normal(shape,mean=0.0,stddev=1.0,dtype=dtypes.float32,seed=None,name=None)  
从正态分布中输出随机值。 
参数:
shape: 一维的张量,也是输出的张量。
mean: 正态分布的均值。
stddev: 正态分布的标准差。
dtype: 输出的类型。
seed: 一个整数,当设置之后,每次生成的随机数都一样。
name: 操作的名字。
import tensorflow as tf  
  
with tf.Session() as sess:  
    shape = [10]  
    s = tf.random_normal(shape,stddev=0.01)  
    print(sess.run(s))  
#输出
[-1.5217212e-03 -6.1807544e-03 -9.0085909e-05 3.5682449e-03 -2.4051435e-02 
 -4.6246415e-03 2.3837769e-02 8.5584261e-03 -2.3923095e-03 -1.4737996e-02]

2.tf.Variable()

import tensorflow as tf 


with tf.Session() as sess:  
    shape = [10]  
    s = tf.random_normal(shape,stddev=0.01)  
    ver = tf.Variable(s)  
    init = tf.global_variables_initializer()  
    sess.run(init)  
    print(s)  
    print(ver)  
    print(sess.run(ver))  


Tensor("random_normal:0", shape=(10,), dtype=float32)  
<tf.Variable 'Variable:0' shape=(10,) dtype=float32_ref>  
[-0.0005947  -0.00067255 -0.00474246  0.0180191   0.00285503  
0.00240912    0.00317447  0.00197305  0.0121715  -0.00762024] 
在TensorFlow中,tf.Variable()函数创建变量,过程是输入一个 张量,返回一个 变量。声明变量后 需要初始化变量。
3.tf.nn.conv2d(): 详细介绍
4.tf.nn.max_pool():详细介绍
5.tf.nn.dropout():详细介绍
6.tf.nn.relu():详细介绍
####未编辑完成,博客出现问题,无法保存为草稿#####

猜你喜欢

转载自blog.csdn.net/Hubz131/article/details/80096237
今日推荐