mnist

    1热度

    2回答

    关于神经网络批量训练我有几个问题。 首先,当我们使用批量训练来更新权重时,更改量是批量大小的累积梯度。在这种情况下,变化量是渐变的总和?或平均的梯度? 如果答案是梯度的总和,则变化量将比在线培训大得多,因为数量是累积的。在这种情况下,我认为权重可以很好地优化。 否则,如果答案是梯度的平均值,那么对权重进行优化似乎是非常合理的。但是,在这种情况下,我们必须培训比在线培训多得多的时间,因为它更新批量数

    0热度

    1回答

    我正在修改我自己的数据的深层次的代码。我稍微修改了一个模型,但是我面临着一些基本问题,比如我将数据逐个传递给我的模型,并且运行得很快,但是当我将所有示例传递给模型时,它变得非常慢,我也获得了0%的准确性。请仔细阅读我的代码我正在做一些可怕的错误,但我不知道在哪里以及我应该遵循哪些步骤来使其正确。 这里是我的模型 def deepnn(x): """deepnn builds the graph

    0热度

    1回答

    我正在尝试使用手写数字的MNIST数据集作为项目,并且我试图读取每个图像中的28到28个二维数组,每个像素的灰度颜色对应于1-255。我从他们的网站(http://yann.lecun.com/exdb/mnist/)下载了培训文件(train-images-idx3-ubyte.gz),并且在实际处理该文件时遇到了麻烦。它将文件格式描述为16个字节的标题信息,后面是无符号位,每个位都有一个像素,

    0热度

    1回答

    我试图延长MNIST Tensorflow教程“深度学习专家”,其中我试图打印y_conv的终值(从教程),这里是我的代码: with sess.as_default(): x_test=mnist.test.images[10] x_test=np.reshape(x_test,(-1,784)) print(y_conv.eval(feed_dict={x:x_t

    1热度

    1回答

    我刚从tensorflow开始,我想在我自己的图像上测试tensorflow的tutorial的训练模型。这是我用来测试使用SoftMax回归模型在教程开始对我自己的形象代码: with open("three.jpeg", "rb") as f: contents = f.read() image = tf.image.decode_jpeg(contents, channels=

    2热度

    1回答

    我是Deep Learning的新手,我正在使用Keras来学习它。我遵循link的指示,使用MNIST数据集构建手写数字识别分类器。就看到可比较的评估结果而言,它运行良好。我使用tensorflow作为Keras的后端。 现在我想用手写数字读取图像文件,并使用相同的模型预测其数字。我认为图像需要先变成28x28维度,首先是255的深度?我不确定我的理解是否正确。如果是这样,我如何在Python中

    1热度

    1回答

    运行这个例子当:“蟒蛇mnist_with_summaries.py”,已 出现下面的错误吧: 详细的错误信息: Traceback (most recent call last): File "mnist_with_summaries.py", line 214, in tf.app.run(main=main, argv=[sys.argv[0]] + unparsed) File "D:\P

    0热度

    1回答

    如何合并批量训练中张量流的mnist训练,测试和验证集。任何人都可以帮助我?

    0热度

    2回答

    是否可以创建一个神经网络,在输出层有一个神经元,可以在训练后直接预测NMIST数据集中的数字。例如,如果我们将数字3作为输入,则输出层神经元应使输出值接近3. 注意:可能有任意数量的具有任意数量隐藏层的神经元。 在此先感谢。 这是我尝试过使用Tensorflow。 import tensorflow as tf from mnist import MNIST import numpy as n

    1热度

    2回答

    我正在研究张量流中的mnist example。 我感到困惑与模块FLAGS # Basic model parameters as external flags. FLAGS = None 在 “run_training” funcition: def run_training(): """Train MNIST for a number of steps.""" # Tell Ten