代码之家  ›  专栏  ›  技术社区  ›  user3391229

tensorflow slim并行训练和评估回路;单个设备

  •  1
  • user3391229  · 技术社区  · 7 年前

    例如,如果我有2个gpu,我可以在第一个gpu上运行一个以“slim.learning.train()”结尾的python脚本,在第二个gpu上运行另一个以“slim.evaluation.evaluation\u loop()”结尾的python脚本。

    是否有一种方法可以为两个任务管理1个gpu的资源?tf。火车我想起了主管,但我真的不知道。

    1 回复  |  直到 7 年前
        1
  •  1
  •   Shruthi Sampath Kumar    6 年前

    您可以使用以下代码对GPU使用情况进行分区。

    gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.3000) sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options)) sess.run(tf.app.run())