代码之家  ›  专栏  ›  技术社区  ›  Yes92

Tensorflow:神经网络模型中的可变层数

  •  0
  • Yes92  · 技术社区  · 7 年前


    w = tf.Variable(tf.random_normal([h, w]))
    self.__encoder[index] = tf.matmul(label, w)
    

    1 回复  |  直到 7 年前
        1
  •  0
  •   Giuseppe Marra    7 年前

    1. 从文件中读取某个数字
    2. 使用此模型并提供一些其他输出

    我仍然不清楚为什么你在某处读取隐藏层的数量,其中隐藏(或潜在)意味着这些是不依赖于你的数据的超参数。

    无论如何,根据变量构建不同数量的层简单如下:

    def layer(x, input_size, output_size):
        w = tf.Variable(tf.truncated_normal(shape=[input_size, output_size]))
        b = tf.Variable(tf.zeros([output_size]))
        return tf.sigmoid(tf.matmul(x,w) + b)
    
    num_layers = ... #read somewhere
    size_layers = ... #output_dimesion for each layer
    h = x
    for i in range(num_layers):
        h = layer(h, input_size, size_layers[i])
        input_size = size_layer[i]