1
2
这是一个众所周知的问题,它涉及普通RNN和双向RNN。 This discussion on GitHub 可能对你有帮助。本质上,以下是最常见的选项:
|
2
1
一个选项是使用可变长度配置模型:
然后,您必须单独培训每个文档。
其他选项是使用具有最大长度的单个输入数组并添加
这对于单向LSTM非常有效,但我不确定它对于双向(从未测试过)是否正确实现。 |
jamesk · 在空间中识别“it”主题 7 年前 |
ZHANG Juenjie · 使用RNN生成一系列张量 7 年前 |
A. Syam · 没有名为“tqdm”的模块 7 年前 |
Dmitri K · sin延迟回波-无法再现张量流,导致KERA 7 年前 |
DarkHawk · tensorflow中LSTM的多元输入 7 年前 |
Peter Kim · Imdb review编码错误 7 年前 |