例如,如果我有2个gpu,我可以在第一个gpu上运行一个以“slim.learning.train()”结尾的python脚本,在第二个gpu上运行另一个以“slim.evaluation.evaluation\u loop()”结尾的python脚本。
是否有一种方法可以为两个任务管理1个gpu的资源?tf。火车我想起了主管,但我真的不知道。
您可以使用以下代码对GPU使用情况进行分区。
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.3000) sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options)) sess.run(tf.app.run())