【tensorflow扩展库学习】波士顿房价预测

   项目介绍

        我们首先使用基本的方法完整将“波士顿房价预测”项目完成,然后展示如何使用tensorflow的扩展库:contrib.learn,让这个过程变得更加容易。
       
        我们可以直接使用python的sklearn库,该库内置了波士顿房屋的数据集。波士顿房屋数据集较小,共有506个样本,包含了有关马萨诸塞州波士顿地区的住房信息。
       
        这个数据集中有13个预测变量:

  1. CRIM : 城市人均犯罪率
  2. ZN : 占地面积25000平方尺以上住宅的用地比例
  3. INDUS : 每个镇的非零售业务比例
  4. CHAS : 查尔斯河虚拟变量(若道路边界与河相交,则为1;否则为0)
  5. NOX : 一氧化氮浓度(没1000万份)
  6. RM : 每个房间平均房间数量
  7. AGE : 1940年以前建成的自用住房比例
  8. DIS : 到5个波士顿就业中心的(加权)距离
  9. RAD : 径向高速公路的可达性指数
  10. TAX : 全价物业税率(每1万美元)
  11. PTRATIO : 城镇学生与教师的比例
  12. B : 1000 (Bk-0.63) ^2, 其中Bk是城镇黑人的比例
  13. LSTAT : 收入较低的人口百分比

   下载sklearn库

      要注意在pip和conda中,sklearn库的下载库名是不同的

    pip下载

	pip install https://pypi.tuna.tsinghua.edu.cn/simple sklearn

    conda下载

	conda install scikit-learn

   常规方法实现

import tensorflow as tf
from sklearn import datasets, metrics, preprocessing

# 导入数据
boston = datasets.load_boston()
x_data = preprocessing.StandardScaler().fit_transform(boston["data"])
y_data = boston["target"]

# 设置原始数据与预测值占位符
x = tf.placeholder(tf.float64, shape=(None, 13))
y_true = tf.placeholder(tf.float64, shape=None)

# 设置需要训练的变量,采用线性回归模型
with tf.name_scope('inference') as scope:
    w = tf.Variable(tf.zeros([1, 13], dtype=tf.float64, name='weights'))
    b = tf.Variable(0, dtype=tf.float64, name='bias')
    y_pred = tf.matmul(w, tf.transpose(x)) + b

# 计算均方误差
with tf.name_scope('loss') as scope:
    loss = tf.reduce_mean(tf.square(y_true-y_pred))

# 设置训练速率
with tf.name_scope('train') as scope:
    learning_rate = 0.1
    optimizer = tf.train.GradientDescentOptimizer(learning_rate)
    train = optimizer.minimize(loss)

# 初始化变量
init = tf.global_variables_initializer()
# 开始训练网络
with tf.Session() as sess:
    sess.run(init)
    for step in range(200):
        sess.run(train, {
    
    x: x_data, y_true: y_data})

        if step % 20 == 0:
            MSE = sess.run(loss, {
    
    x: x_data, y_true: y_data})
            print(" %d step : %.5f" % (step, MSE))

    MSE = sess.run(loss, {
    
    x: x_data, y_true: y_data})

print(MSE)

    输出

 	0 step : 367.47767
 	20 step : 22.86910
 	40 step : 22.26723
 	60 step : 22.07584
 	80 step : 21.99323
 	100 step : 21.95137
 	120 step : 21.92813
 	140 step : 21.91465
 	160 step : 21.90668
 	180 step : 21.90193
	21.899194504808012

   

   使用contrib.learn优化实现

import tensorflow as tf
from tensorflow.contrib import learn
from sklearn import datasets, metrics, preprocessing

# 导入数据
boston = datasets.load_boston()
x_data = preprocessing.StandardScaler().fit_transform(boston["data"])
y_data = boston["target"]

# 设置训练步数
NUM_STEPS = 200
# 设置训练大小
MINIBATCH_SIZE = 506

# 为输入' x '定义的输入创建' feature_columns '对象
feature_columns = learn.infer_real_valued_columns_from_input(x_data)

# 使用learn.LinearRegressor()实例化线性回归模型,并提供关于数据表征和优化器类型的数据:
reg = learn.LinearRegressor(
    feature_columns=feature_columns,
    optimizer=tf.train.GradientDescentOptimizer(
        learning_rate=0.1))

# 使用fit()对回归器regressor对象进行训练。我们向它传递协变量和目标变量,并设置步数和批量大小:
reg.fit(x_data, y_data, steps=NUM_STEPS, batch_size=MINIBATCH_SIZE)

# MSE损失由evaluate()返回:
MSE = reg.evaluate(x_data, y_data, steps=1)
print(MSE)

    输出

	{
    
    'loss': 21.899193, 'global_step': 200}

    
      欢迎各位大佬交流讨论

本文示例参考《TensorFlow学习指南——深度学习系统构建详解》第七章第二节

猜你喜欢

转载自blog.csdn.net/weixin_42721167/article/details/112652171