2017-04-06 88 views
1

我正在使用下面的代码创建CNN图层。如何在Tensorflow中获取CNN内核值

conv1 = tf.layers.conv2d(inputs = input, filters = 20, kernel_size = [3,3], 
    padding = "same", activation = tf.nn.relu) 

我想在训练后获取所有内核的值。它不工作,我只是做

kernels = conv1.kernel 

那么我应该如何检索这些内核的价值?我也不确定conv2d有什么变量和方法,因为tensorflow并不真正在conv2d类中告诉它。

回答

0

你的意思是你想获得conv1图层的权值。

你还没有真正用conv2d定义权重,你需要这样做。当我创建一个卷积层我使用执行所有必要的步骤的功能,这里的功能的复制/粘贴我用它来创建一个我的每一个卷积层:

def _conv_layer(self, name, in_channels, filters, kernel, input_tensor, strides, dtype=tf.float32): 
    with tf.variable_scope(name): 
     w = tf.get_variable("w", shape=[kernel, kernel, in_channels, filters], 
          initializer=tf.contrib.layers.xavier_initializer_conv2d(), dtype=dtype) 
     b = tf.get_variable("b", shape=[filters], initializer=tf.constant_initializer(0.0), dtype=dtype) 
     c = tf.nn.conv2d(input_tensor, w, strides, padding='SAME', name=name + "c") 
     a = tf.nn.relu(c + b, name=name + "_a") 
     print name + "_a", a.get_shape().as_list(), name + "_w", w.get_shape().as_list(), \ 
      "params", np.prod(w.get_shape().as_list()[1:]) + filters 
     return a, w.get_shape().as_list() 

这是我用来定义5个卷积图层,这个例子是直接从我的代码中提取出来的,所以请注意,它是5个卷积层堆叠而不使用最大池或任何其他内容,2和5x5内核的步幅。

conv1_a, _ = self._conv_layer("conv1", 3,  24, 5, self.imgs4d, [1, 2, 2, 1]) # 24.8 MiB/feature -> 540 x 960 
    conv2_a, _ = self._conv_layer("conv2", 24, 80, 5,  conv1_a, [1, 2, 2, 1]) # 6.2 MiB   -> 270 x 480 
    conv3_a, _ = self._conv_layer("conv3", 80, 256, 5,  conv2_a, [1, 2, 2, 1]) # 1.5 MiB   -> 135 x 240 
    conv4_a, _ = self._conv_layer("conv4", 256, 750, 5,  conv3_a, [1, 2, 2, 1]) # 0.4 MiB   -> 68 x 120 
    conv5_a, _ = self._conv_layer("conv5", 750, 2048, 5,  conv4_a, [1, 2, 2, 1]) # 0.1 MiB   -> 34 x 60 

另外还有tensorflow网站上的一个很好的教程就如何建立一个卷积网络:

https://www.tensorflow.org/tutorials/deep_cnn

直接回答你的问题是,对卷积层的权重定义在那里为w,如果我正确理解你,那就是你所问的张量。

4

您可以在tf.global_variables()返回的列表中找到所有变量,并轻松查找您需要的变量。

如果你想通过名称来获得这些变量,声明层:

conv_layer_1 = tf.layers.conv2d(activation=tf.nn.relu, 
           filters=10, 
           inputs=input_placeholder, 
           kernel_size=(3, 3), 
           name="conv1",   # NOTE THE NAME 
           padding="same", 
           strides=(1, 1)) 

恢复中的图形:

gr = tf.get_default_graph() 

恢复内核值:

conv1_kernel_val = gr.get_tensor_by_name('conv1/kernel:0').eval() 

将偏差值恢复为:

conv1_bias_val = gr.get_tensor_by_name('conv1/bias:0').eval()