tensorflow命令行参数

深度学习神经网络往往有过多的Hyperparameter需要调优,优化算法、学习率、卷积核尺寸等很多参数都需要不断调整,使用命令行参数是非常方便的。有两种实现方式,一是利用python的argparse包,二是调用tensorflow自带的app.flags实现。

利用python的argparse包


argparse介绍及基本使用:
http://www.jianshu.com/p/b8b09084bd1a

下面代码用argparse实现了命令行参数的输入。

import argparse
import sys

parser = argparse.ArgumentParser()
parser.add_argument('--fake_data', nargs='?', const=True, type=bool,
                      default=False,
                      help='If true, uses fake data for unit testing.')
parser.add_argument('--max_steps', type=int, default=1000,
                      help='Number of steps to run trainer.')
parser.add_argument('--learning_rate', type=float, default=0.001,
                      help='Initial learning rate')
parser.add_argument('--dropout', type=float, default=0.9,
                      help='Keep probability for training dropout.')
parser.add_argument('--data_dir', type=str, default='/tmp/tensorflow/mnist/input_data',
                      help='Directory for storing input data')
parser.add_argument('--log_dir', type=str, default='/tmp/tensorflow/mnist/logs/mnist_with_summaries',
                      help='Summaries log directory')
FLAGS, unparsed = parser.parse_known_args()
tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)

通过调用python的argparse包,调用函数parser.parse_known_args()解析命令行参数。代码运行后得到的FLAGS是一个结构体,内部参数分别为:

FLAGS.data_dir
Out[5]: '/tmp/tensorflow/mnist/input_data'

FLAGS.fake_data
Out[6]: False

FLAGS.max_steps
Out[7]: 1000

FLAGS.learning_rate
Out[8]: 0.001

FLAGS.dropout
Out[9]: 0.9

FLAGS.data_dir
Out[10]: '/tmp/tensorflow/mnist/input_data'

FLAGS.log_dir
Out[11]: '/tmp/tensorflow/mnist/logs/mnist_with_summaries'

利用tf.app.flags组件

首先需要定义一个tf.app.flags对象,调用自带的DEFINE_string, DEFINE_boolean, DEFINE_integer, DEFINE_float设置不同类型的命令行参数及其默认值。当然,也可以在终端用命令行参数修改这些默认值。

# Define hyperparameters
flags = tf.app.flags
FLAGS = flags.FLAGS
flags.DEFINE_boolean("enable_colored_log", False, "Enable colored log")
                    "The glob pattern of train TFRecords files")
flags.DEFINE_string("validate_tfrecords_file",
                    "./data/a8a/a8a_test.libsvm.tfrecords",
                    "The glob pattern of validate TFRecords files")
flags.DEFINE_integer("label_size", 2, "Number of label size")
flags.DEFINE_float("learning_rate", 0.01, "The learning rate")

def main():
    # Get hyperparameters
    if FLAGS.enable_colored_log:
        import coloredlogs
        coloredlogs.install()
    logging.basicConfig(level=logging.INFO)
    FEATURE_SIZE = FLAGS.feature_size
    LABEL_SIZE = FLAGS.label_size
    ...
  return 0

if __name__ == ‘__main__’:
    main()

这段代码采用的是tensorflow库中自带的tf.app.flags模块实现命令行参数的解析。如果用终端运行tf程序,用上述两种方式都可以,如果用spyder之类的工具,那么只有第一种方式有用,第二种方式会报错。

其中有个tf.app.flags组件,还有个tf.app.run()函数。官网帮助文件是这么说的:
flags module: Implementation of the flags interface.
run(...): Runs the program with an optional 'main' function and 'argv' list.

tf.app.run的源代码:

1."""Generic entry point script."""  
2.from __future__ import absolute_import  
3.from __future__ import division  
4.from __future__ import print_function  
5.  
6.import sys  
7.  
8.from tensorflow.python.platform import flags  
9.  
10.  
11.def run(main=None):  
12.  f = flags.FLAGS  
13.  f._parse_flags()  
14.  main = main or sys.modules['__main__'].main  
15.  sys.exit(main(sys.argv))

也就是处理flag解析,然后执行main函数。

用shell脚本实现训练代码的执行


在终端执行python代码,首先需要在代码文件开头写入shebang,告诉系统环境变量如何设置,用python2还是用python3来编译这段代码。然后修改代码权限为可执行,用
./python_code.py
就可以执行。同理,这段代码也可以用shell脚本来实现。创建.sh文件,运行python_code.py并设置参数max_steps=100
python python_code.py --max_steps 100



作者:HappyHorizon
链接:https://www.jianshu.com/p/a8f0b9c9dc58
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

猜你喜欢

转载自blog.csdn.net/zlrai5895/article/details/79433105