tensorflow1.0 api

x = tf.placeholder(int32, [], name='x') #占位符
with tf.Session() as sess: #占位符用法
	sess.run(2 * x, feed={x : 3})
	
tf.matmul(a, b) #矩阵乘法

tf.one_hot(labels,depth,axis)#one hot编码

tf.get_variable("W1", [x,y], initializer=tf.contrib.layers.xavier_initializer(seed=1))#tf.Variable() 每次都在创建新对象,对于get_variable()来说,对于已经创建的变量对象,就把那个对象返回,如果没有创建变量对象的话,就创建一个新的

tf.reduce_mean(input_tensor,axis=None,keep_dims=False,name=None)#计算平均值

tf.cast(x, dtype, name=None)#转换数据格式

tf.transpose()#转置

tf.argmax()#按列取最大值的索引位置

tf.equal(a, b)#判断a是否等于b

tf.reset_default_graph#函数用于清除默认图形堆栈并重置全局默认图形。 

ops.reset_default_graph() #能够重新运行模型而不覆盖tf变量

tf.random_normal(shape,mean=x,stddev=y,seed=)  #创建维度为shape,均值为x,标准差为y的正态分布.

tf.nn

tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...)  #计算sigmoid损失函数

tf.nn.softmax_cross_entropy_with_logits(logits=...,labels=...)  #计算softmax损失函数.注意logits的shape(batch_size,num_classes)

tf.nn.conv2d(X,W,strides=[1,s,s,1],padding='SAME')  #给定输入X和一组过滤器W,这个函数将会自动使用W来对X进行卷积

tf.nn.max_pool(A, ksize = [1,f,f,1], strides = [1,s,s,1], padding = 'SAME')  #计算池化层的最大值

tf.nn.relu(X)  #计算X的ReLU激活

tf.contrib.layers

tf.contrib.layers.xavier_initializer(uniform=True,seed=None,dtype)  # Xavier初始化 

tf.contrib.layers.flatten(P)  #将样本转为一维向量,维度为(batch_size,k)

tf.contrib.layers.fully_connected(X, num_outputs)  #给定一个已经一维化了的输入X,此函数将会返回一个由全连接层计算过后的输出。
#全连接层会自动初始化权值且在训练模型的时候它也会一直参与,所以初始化参数的时候不需要专门去初始化它的权值。

tf.train

tf.train.GradientDescentOptimizer(learning_rate=).minimize(cost)#普通梯度下降

tf.train.AdamOptimizer(learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, use_locking=False),minimize(cost)  #Adam优化

tf.image

tf.image.non_max_suppression(boxes,scores,max_output_size,iou_threshold=0.5,score_threshold=float('-inf'),name=None)  #非最大抑制
发布了2 篇原创文章 · 获赞 0 · 访问量 50

猜你喜欢

转载自blog.csdn.net/five_years_old/article/details/104390786