tensorflow学习(1)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_31214097/article/details/85051487

TensorFlow是Google开发的一款神经网络的Python外部的结构包, 也是一个采用数据流图来进行数值计算的开源软件库.TensorFlow 让我们可以先绘制计算结构图, 也可以称是一系列可人机交互的计算操作, 然后把编辑好的Python文件 转换成 更高效的C++, 并在后端进行计算.

机器学习:其实就是让电脑不断地尝试模拟已知的数据,他能知道自己拟合的数据离真实数据差距还有多远,通过不断的改进自己拟合的参数,提高拟合的相似度.

转换成

tensorflow处理结构:

首先需要定义神经网络的结构,然后再把数据放入结构中去运算和training

tensorflow是采用数据流图(data flow graphs)来计算,所以首先我们创建一个数据流图,然后再将我们的数据(数据以张量(标量,一维向量或者二维矩阵)进行表示,放在数据流中进行计算,节点(nodes)表示数学操作,图中的线(edge)则表示在节点间相互联系的多维向量,训练模型时,tensor会不断的从数据流图中的一个node 流到(flow)到另外一个节点中,这就是tensorflow

张量的定义:

1. 零阶张量为 纯量或标量 (scalar) 也就是一个数值. 比如 [1]

2.一阶张量向量(vector) 比如一维的[1,2,3]

3.二阶张量为居中(matrix),比如二维的[[1,2,3]]

tensorflow简单应用:

导入数据,创建数据,即原始数据x和标签y

import tensorflow as tf
import numpy as np

# create data
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3

神经网络会学着把weights变成0.1,把bias变成0.3

进行搭建模型 搭建需要预测的w和b

#随机初始化weight和bias
Weights = tf.Variable(tf.random_uniform([1],-1.0,1.0)); #表示一维向量 为-1.0到1.0
bias =  tf.Variable(tf.zeros([1])); #初始化
#计算预测的输出值
y = Weights * x_data + bias;


计算误差和的平均值和平均值的均方误差.反向传播采用梯度下降法进行优化.

#计算误差 和的平均值 均方误差
loss = tf.reduce_mean(tf.square(y - y_data));

#反向传播误差进行优化 使用梯度下降法 Gradient Descent 让后我们使用 optimizer 来进行参数的更新.

optimizer = tf.train.GradientDescentOptimizer(0.5);
train = optimizer.minimize(loss);

以上便是建立好的模型.

以下使用session将数据流图跑起来,注意,要将所有变量进行初始化!!!

#这一步很重要
init = tf.global_variables_initializer();
#创建session 进行初始化
sess = tf.Session();
sess.run(init);
for step in range(201):
    #训练train
    sess.run(train);
    #如果步长为20 进行打印输出w和b
    if(step % 20 == 0):
        print(step,sess.run(Weights),sess.run(bias));

要注意,要打印数据流图中计算的值,也需要使用sess.run方法.

猜你喜欢

转载自blog.csdn.net/qq_31214097/article/details/85051487
今日推荐