deep-learning

    4热度

    2回答

    当我使用预先训练的单词向量做LSTM分类时,我想知道如何处理tensorflow中大于2gb的嵌入查找表。 要做到这一点,我试图让嵌入查找表像下面的代码, data = tf.nn.embedding_lookup(vector_array, input_data) 得到这个值误差。上的代码 ValueError: Cannot create a tensor proto whose conten

    2热度

    1回答

    在多个出版物中描述这个问题涉及在CNN使用位置矢量的关系分类,如以下通过Zeng等人:http://www.aclweb.org/anthology/C14-1220 我想在张量流中实现这样一个模型。我的问题如下: 使用随机初始化向量表示位置信息有什么好处吗?举例来说,为什么不用一个热门的矢量编码来表示位置?不建议将单热矢量与密集的单词矢量结合起来吗? 根据单词向量的维度,位置向量应该具有最小维度

    0热度

    2回答

    我有一个神经网络问题 假设我有60个培训,20个验证和20个测试集。对于每个时期,我通过60个训练集样本运行,同时调整每个样本的权重,并计算每个验证样本的误差。 所以我所知,发生在训练集(未验证集) 重量更新,但我听说分离验证从训练集设置是为了避免过度拟合。 然后我的问题是 如果验证并不能使神经网络中的任何权重更新,如何验证设置帮助神经网络避免过度拟合?

    1热度

    1回答

    我一直在努力,因为我实现卷积神经网络来获得卷积运算更深入的了解。但是我在试图计算反向通过或反卷积时卡住了。 可以说输入是尺寸为3x7x7的三维RGB图像过滤器的尺寸为3x3x3。在将步长设置为2的卷积中,我们将得到尺寸为3x3的输出。 现在,这是我的问题。我已经读过,反卷积是输出与翻转内核的卷积。但是在翻转内核时,它仍然是尺寸为3x3x3,输出尺寸为3x3。输入是尺寸3x7x7。那么,解卷积是如何

    2热度

    2回答

    我正在开发一个人必须模仿预定姿势的项目。照片是由模仿此预定义姿势的人制作的。 然后,从这个图像中提取人的人体姿势,并与预定义的姿势进行比较。最后一个得分机制决定两个姿势的匹配程度,或者它们完全匹配。 我想为智能手机开发,因此理想情况下,所有内容都嵌入智能手机本身。这意味着,该实现能够在CPU或智能手机GPU上运行(例如Moto G5 Plus,板载Adreno 506 GPU - 支持OpenGL

    1热度

    2回答

    我的Kaggle's Credit Card Fraud(分类)数据集试图Tensorflow的DNNLinearCombinedClassifier(1.3版): m = tf.estimator.DNNLinearCombinedClassifier(model_dir='/.../model', dnn_feature_columns=deep_columns,

    0热度

    1回答

    我想知道怎样才能将合并为两层不同的空间空间Tensorflow。 例如:: batch_size = 3 input1 = tf.ones([batch_size, 32, 32, 3], tf.float32) input2 = tf.ones([batch_size, 16, 16, 3], tf.float32) filt1 = tf.constant(0.1, shape = [

    0热度

    1回答

    我正在训练使用https://arxiv.org/abs/1310.4546中描述的着名模型的跳跃字嵌入。我想在PyTorch中训练它,但是我收到错误,我无法弄清楚它们来自哪里。下面我提供了我的模型类,训练循环和配料方法。有没有人对发生了什么有所了解?我在行发生错误。它有一个<class 'torch.LongTensor'>问题,这很奇怪,因为CrossEntropyLoss需要很长的张量。输出

    1热度

    1回答

    我想在我的机器的GPU运行Cifar-10 CNN代码,但我面临着以下问题: 尺寸(1)必须在区间[0,2),其中, 2是输入中的维数。对于'metrics/acc/ArgMax'(op:'ArgMax'),输入形状为:[?,?],[]。 这里是我的代码: import os os.environ["THEANO_FLAGS"] = "mode=FAST_RUN,device=cuda0,flo

    0热度

    2回答

    我读过一些关于卷积神经网络的论文,发现几乎所有的论文都将这些完全连接的层称为正常的CNN“顶层”。 但是,正如大多数论文所显示的那样,典型的CNN具有自顶向下的结构,并且完全连接的层(通常跟着一个softmax分类器)被放置在网络的底部。那么,为什么我们称他们为“顶层”呢?这是一种惯例,还是我不知道的其他考虑因素?