convolution

    -1热度

    1回答

    所以我在CUDA中实现了(或者至少试过)Sobel滤波器,我的代码如下。当我执行这个文件时,我得到一个正确的Sobel过滤图像的一半,另一半是黑色的。我无法上传图片,因为它们的格式为.pgm。因此,代码所执行的操作是以.pgm格式的灰度图像读取的,并使用共享内存概念将Sobel滤镜遮罩与其进行卷积。我用一个1024×1024的图像作为输入,它返回一个Sobel滤波图像,其边缘有一半水平切割,因此它

    1热度

    1回答

    任何人请告诉我如何可视化每个CNN图层的学习过滤器? 以下答案告诉我如何仅将第一个CNN图层的学习过滤器可视化,但不能看见其他CNN图层。 1)你可以恢复过滤器,并使用Matlab的函数显示它们为图像。例如从http://www.vlfeat.org/matconvnet/pretrained/加载预训练后的净额: imshow(net.layers{1}.filters(:, :, 3, 1),

    -1热度

    1回答

    我使用TensorFLow的C++版本和已经建立“TensorFlow为Android”成功使用以下命令 “巴泽勒建立-c选择// tensorflow /示例/机器人:tensorflow_demo”作为https://github.com/tensorflow/tensorflow/tree/master/tensorflow/examples/android#bazel 描述 我试图优化卷积

    2热度

    1回答

    我正在尝试了解GAN,并正在通过the example here进行工作。 下面使用ADAM优化的代码给我 "ValueError: Variable d_w1/Adam/ does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=None in VarScope?" 我使用TF 1.1

    1热度

    1回答

    我有两个问题: (1)当只使用一个GPU时,Tensorflow如何分配GPU内存?我有这样的(全球使用GPU)卷积2D的实现: def _conv(self, name, x, filter_size, in_filters, out_filters, strides): with tf.variable_scope(name): n = filter_size * fil

    2热度

    1回答

    我试图将Conv2D图层与图像上的LSTM图层相结合。 问题在于Conv2D图层需要输入包括通道数量的4D张量,而我的LSTM网络需要3D张量。 问题是我使用bucketing,所以我的输入没有预定义的时间步数。我想这样做: input_data = Input(shape=[None, nb_features, 1]) cnn1 = Conv2D(nb_filters, kernel_size

    1热度

    2回答

    我有一个分类问题,其中感兴趣的类只有数据集的7%,整个人口大约有1200个观察值。 据我所知,来自Keras的ImageDataGenerator有助于增加数据以在训练模型之前增加观察次数,但是是否可以只增加一个类,如增加噪声,模糊或仅对少数类进行变换?

    0热度

    1回答

    我使用CNN(卷积神经网络)模型来训练cifar10。 我试图在每次执行时更改批量大小以查看其对时间的影响 我的结论是:批量越大,模型执行的时间就越多。 这个问题似乎符合逻辑,因为在我们应用BP算法每一批的结束,具有较大批量大小意味着我们施加较小梯度下降所以逻辑上,我们应该有较少的执行时间。 我发现相反。你们觉得怎么样 ! 感谢 这里是我的会话代码: with tf.Session() as s

    1热度

    1回答

    我正在研究生成敌对网络。最近,在阅读Radford等人的论文的同时, here,我发现他们的发电机网络的输出层使用Tanh()。 Tanh()的范围是(-1,1),但是,双精度格式的图像的像素值位于[0,1]。有人可以解释为什么Tanh()用于输出层,以及发生器如何生成具有适当像素值的图像?

    0热度

    1回答

    我试图复制在CNN https://pdfs.semanticscholar.org/3b57/85ca3c29c963ae396c2f94ba1a805c787cc8.pdf 描述,我停留在最后一层。我已经建模这样的cnn # Model function for CNN def cnn_model_fn(features, labels, mode): # Input Layer