TensorFlow使用的一个小案例

TensorFlow使用的一个小案例

上一篇博客我们已经安装了TensorFlow,有很多人可能会对机器学习感到害怕,但其实有好多原理我们现在不需要懂,我们先搞清楚TensorFlow有什么作用就行,那么下面我通过一个小的案例来说明TensorFlow是怎么使用的


一.概率学中的逆概率

  • 什么是逆概率

    • 我们肯定知道正概率,举个例子就是,箱子里有5个黑球5个白球,那你随机拿到黑球和白球的概率都是50%,那现在我不知道箱子里有多少个黑球白球,那我通过不断的拿球应该如何确定箱子里有多少个黑球白球呢,这就是出名的逆概率
    • 其实机器学习很多时候也就是逆概率的问题,我有大量现实例子的情况下,让机器从这些例子中找到共同的特征,例如给一万张猫的图片给机器学习,然后找到共同的特征(两只耳朵,四只脚,有胡须,有毛,有尾巴等特征)
  • 根据逆概率的概念我们再举个其他场景

    • y=Ax+B(A、B是常量),这是一条非常简单的数学方程式,有小学基础的人应该都知道。
    • 我现在有很多的x和y值,所以问题就是如何通过这些x和y值来得到A和B的值?

那我下面就用TensorFlow来解决这个问题!

二、简单的案例

一些基础信息:

1.系统是ubuntu 16.04 LTS
2.我用的是sublime text3来写的代码
3.Python用的是3.5
4.TensorFlow用的是0.12.0

实例代码

#导入依赖库
import numpy as np #这是Python的一种开源的数值计算扩展,非常强大
import tensorflow as tf  #导入tensorflow 

##构造数据##
x_data=np.random.rand(100).astype(np.float32) #随机生成100个类型为float32的值
y_data=x_data*0.1+0.3  #定义方程式y=x_data*A+B
##-------##

##建立TensorFlow神经计算结构##
weight=tf.Variable(tf.random_uniform([1],-1.0,1.0)) 
biases=tf.Variable(tf.zeros([1]))     
y=weight*x_data+biases
##-------##


loss=tf.reduce_mean(tf.square(y-y_data))  #判断与正确值的差距
optimizer=tf.train.GradientDescentOptimizer(0.5) #根据差距进行反向传播修正参数
train=optimizer.minimize(loss) #建立训练器

init=tf.initialize_all_variables() #初始化TensorFlow训练结构
sess=tf.Session()  #建立TensorFlow训练会话
sess.run(init)     #将训练结构装载到会话中

for  step in range(400): #循环训练400次
     sess.run(train)  #使用训练器根据训练结构进行训练
     if  step%20==0:  #每20次打印一次训练结果
        print(step,sess.run(weight),sess.run(biases)) #训练次数,A值,B值

最后的结果图:
结果

写在最后的话

当然,这只是一个非常简单的案例,但是作为TensorFlow的入门非常的合适,很多人都一直在看理论,而不实践,这对与程序开发来说是致命了,你只有实践了才会有更深的理解,而且当程序运行成功会给你带来很大的信心,支撑着你继续走下去。

猜你喜欢

转载自blog.csdn.net/dilemmavf/article/details/66476862