machine-learning

    0热度

    1回答

    我想重现一个教程看到 here。 一切工作完美,直到我用我的训练集添加.fit方法。 这里是我的代码示例: # TRAINING PART train_dir = 'pdf/learning_set' dictionary = make_dic(train_dir) train_labels = np.zeros(20) train_labels[17:20] = 1 train_m

    0热度

    1回答

    我想用tf.metrics.accuracy跟踪我的预测的准确性,但我不确定如何使用update_op(以下acc_update_op),该函数返回: accuracy, acc_update_op = tf.metrics.accuracy(labels, predictions) 我的想法是将其添加到tf.GraphKeys.UPDATE_OPS会有道理,但我不知道如何做到这一点。

    0热度

    2回答

    我正在学习深度学习和张量板,几乎是示例代码使用摘要。 我想知道为什么我需要使用变量摘要。 它们是诸如最小,最大,平均值,变异等总结的许多类型的数据。 我应该在典型情况下使用什么? 如何分析和我能从这些汇总图中得到什么? 谢谢:d

    0热度

    1回答

    我从https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10以下cifar10教程。 在这个项目中,有6个类。在搜索互联网后,我了解了cifar10.py和cifar10_input.py类。但我无法理解cifar10_train.py中的火车功能。这是cifar10_train.py类中的火车功能。 def

    0热度

    1回答

    分类节点号我有 library(party) model.cart <- ctree(qtcf ~ ., data=training) 改变了我的情况下,分类树,我想在我的训练集(训练)和测试组(测试),显示终端节点创建一个新的变量编号为特定的观察。 显然,它可以手动进行这样的: training$ctreegroup[((training$sex == 'female') & (train

    0热度

    1回答

    我目前正在学习在机器学习问题中进行堆栈。我将获得第一个模型的输出,并将这些输出用作第二个模型的特征。 我的问题是:订单是否重要?我正在使用套索回归模型和增强树。在我的问题中,回归模型胜过了提升树。因此我在想,我应该首先使用回归树和增强树。 作出此决定时,我需要考虑哪些因素?

    1热度

    2回答

    我是机器学习的新手。 我有一个连续的数据集。我正在尝试使用几个功能对目标标签进行建模。我利用train_test_split函数来分离列车和测试数据。我正在训练,并使用下面的代码测试模型: X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) model = Sequential() model.ad

    2热度

    1回答

    我刚开始使用Sklearn(MLPRegressor)和Keras(Sequential,有Dense图层)。 今天我读了this论文,描述如何使用余弦相似度而不是点积来提高性能。这基本上说,如果我们用f((w^Tx)/(|x||w|))替换f(w^Tx),即我们不只是将点积提供给激活函数,而是将其标准化,我们就可以获得更好更快的性能。 有没有在Python中执行此操作的方法,特别是在SKlear

    1热度

    1回答

    我想将投票分类器应用于多个管道分类器并调整网格搜索中的参数。最小的例子给我一个错误。我必须以不同的方式做到这一点吗? from sklearn.ensemble import RandomForestClassifier from sklearn.ensemble import AdaBoostClassifier from sklearn.ensemble import VotingClas

    1热度

    1回答

    我正在尝试通过创建一个字符文本的热编码来准备数据文件,我可以稍后使用这些编码来训练我的模型进行分类。我有一个由字符行组成的训练数据文件,我最初正在做它们的整数编码,然后是一个热门编码。 例如这是数据文件的外观: afafalkjfalkfalfjalfjalfjafajfaflajflajflajfajflajflajfjaljfafj fgtfafadargggagagagagagavcacac