GPU设置的方法有两种:
1、使用Python指定GPU
(1)在使用之前,首先要查看GPU的占用情况,使用命令:nvidia-smi。
左侧的0,1,2,3的编号代表GPU的编号,在后面设置GPU时会用到。可以看出1卡和2卡是处于占用状态,使用的时候,就可以使用0卡和3卡。
Note:查看正在执行的Python进程时,使用命令:ps -aux|grep python。
(2)指定GPU
import os
###显卡设置
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
Note:表示使用0卡。但是对于测试模型而言,占用的内存就不及训练那么大,此时便可以通过设置占用卡的空间大小来节约内存。
(3)设置定量的GPU
import os
###显卡设置
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
###设置占用卡空间的大小
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))
Note:0.3表示占用GPU30%的内存。
(4)设置最小的GPU使用量;
import os
###显卡设置
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
###设置最小的GPU使用量
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)