deep-learning

    2热度

    2回答

    我坚持着修复与Tensorflow预训练的网络.... import tensorflow as tf import os os.environ['TF_CPP_MIN_LOG_LEVEL']='2' sess=tf.Session() saver = tf.train.import_meta_graph('./model/20170512-110547/model-20170512-1

    1热度

    1回答

    我使用Kaggle Rossmann dataset来训练一个宽而深的模型。代码与教程中给出的代码非常相似。我只更改用于建模的数据。 我正在使用的代码如下: """Example code for TensorFlow Wide & Deep Tutorial using TF.Learn API.""" from __future__ import absolute_import from

    1热度

    1回答

    我使用多层感知器编写了mnist代码。但它没有显示准​​确性和损失函数的标量(但它成功地显示了一个模型图) 如果你知道,你能给我一个线索吗? Tensorflow版本:1.2.0 这些是我想在Tensorboard中显示的功能。 def loss(label,y_inf): # Cost Function basic term with tf.name_scope('loss'

    0热度

    1回答

    我打算在每层中实现2层和256个单元的LSTM。我正在尝试了解PyTorch LSTM框架。我可以编辑的torch.nn.LSTM中的变量是input_size,hidden_​​size,num_layers,bias,batch_first,dropout和双向。 但是,如何在单个图层中有多个单元?

    2热度

    1回答

    训练模型,我们可以使用cntk.squared_error()功能,这样在查找丢失: loss = cntk.squared_error(z, l) 但我感兴趣的是找到绝对误差方面的损失。下面的代码不起作用: loss = cntk.absolute_error(z, l) 提示错误为: AttributeError: module 'cntk' has no attribute 'abs

    0热度

    1回答

    我想编译CNN模型成功地预测我x_test的价值: y_test_predict= model.predict(x_test[3]) 我x_test[3]的形状有关(8000, 1) ,但此行的代码给了我这个错误回报,我不明白真正做到: Traceback (most recent call last): File "CNN_Learning_Side_Channel_Attack.

    1热度

    3回答

    我在分类问题上遇到了麻烦。 我有两个标签在训练数据中的向量数量接近400k,我想训练将数据分为两类的MLP。 但是,数据集非常不平衡。 95%的人有标签1,其他人有0标签。准确性随着培训的进展而增长,并在达到95%后停止。我想这是因为网络预测所有矢量的标签为1。 到目前为止,我尝试用0.5概率退出图层。但是,结果是一样的。有什么方法可以提高准确度吗?

    1热度

    1回答

    我分类30种衣服使用R-CNN从tensorflow对象检测库的图像:https://github.com/tensorflow/models/tree/master/research/object_detection 颜色是否不管什么时候,我们收集的培训和测试图像? 如果我只穿紫色和蓝色衬衫,我猜它不会识别红色衬衫? 我应该灰度化所有图像来检测衣服的类型? :)

    0热度

    1回答

    我正在基于DCGAN的GAN上工作。 我听说Generator和Discriminator需要冻结它的变量,而另一个正在训练。 所以我以前就这样做过。 G = generator(batch_size, z, in_h) D, D_logits = discriminator(X) D_, D_logits_ = discriminator(G, reuse=True) # Vari

    0热度

    2回答

    我正在使用MLPRegressor,它需要5个连续的特征和1个特征,这些特征从一组40个值[0,1,2,.., 39]中提取值。 有人告诉我,使用sklearn.preprocessing.MinMaxScaler(feature_range = (0,1))正常化功能可以帮助提高MLP和LSTM的性能。 因此,我在包含上述功能的我的Xtrain矩阵上使用它。 但是,它看起来很奇怪,我应该尽量减少