代码之家  ›  专栏  ›  技术社区  ›  sww

Pytorch隐藏状态LSTM

  •  2
  • sww  · 技术社区  · 7 年前

    为什么我们需要在pytorch的LSTM中初始化隐藏状态h0。因为h0无论如何都会被计算并被覆盖?是不是

    内景a a=0

    a=4

    即使我们不做a=0,也应该没问题。。

    1 回复  |  直到 7 年前
        1
  •  4
  •   nemo    7 年前

    关键是您能够提供初始状态,这是一个特性。他们本可以将其作为默认值实现,但通过让您控制张量的分配,您可以节省一些内存(分配一次,每次调用都归零)。

    为什么需要设置 h ?序列到序列模型需要这样做(将输入压缩到一个向量,将此向量用作解码器的隐藏状态),或者您可能希望使初始状态可学习。