代码之家  ›  专栏  ›  技术社区  ›  Michael

当使用多个gpu时,PyTorch这样的深度学习框架是如何处理内存的?

  •  3
  • Michael  · 技术社区  · 6 年前

    1 回复  |  直到 6 年前
        1
  •  3
  •   iacolippo    6 年前

    如果你有两个GPU,我会使用数据并行。在数据并行中,每个GPU上都有一个模型副本,每个副本都有一个批处理。然后收集渐变并用于更新副本。

    nn.DataParallel

    model = torch.nn.DataParallel(model, device_ids=[0, 1])
    output = model(input_var)