hyperparameters

    1热度

    2回答

    所以,我有一个分类,它看起来像 clf = VotingClassifier(estimators=[ ('nn', MLPClassifier()), ('gboost', GradientBoostingClassifier()), ('lr', LogisticRegression()), ], voting='soft') 而且我想基本

    -1热度

    1回答

    我想执行超参数搜索。在每个参数组合上,我正在创建适当的图形并对其进行训练。内部图形中有可能性图的摘要。 如何组织张量板报告以便在一个页面中查看所有内容? 我可以有不同的logdir名称,还有什么选择?

    2热度

    1回答

    我想为Keras做一个多类分类的网格搜索。下面是一段代码: 数据的一些属性如下: y_ array(['fast', 'immobile', 'immobile', ..., 'slow', 'immobile', 'slow'], dtype='<U17') y_onehot = pd.get_dummies(y_).values y_onehot array

    1热度

    1回答

    我试图找出如何建立一个工作流程sklearn.neighbors.KNeighborsRegressor包括: 正常化功能 特征选择(20的最佳子集数字特征,没有特定的总) 交叉验证超参数K的范围为1〜20 交叉验证模型 使用RMSE作为误差度量 scikit-learn中有很多不同的选项,我有点不知所措,试图决定我需要哪些类。 而且sklearn.neighbors.KNeighborsRegr

    5热度

    3回答

    对Pytorch模型执行超参数优化的最佳方法是什么?实现例如随机搜索我自己?使用Skicit学习?还是还有什么我不知道的?

    -1热度

    1回答

    是否有一种使用GridSearch自动调整随机森林分类器的方法。我们没有提供这些值,而是有任何方法可以找到最佳的最佳参数值。 rfc = RandomForestClassifier(n_jobs=-1, max_features='sqrt', oob_score = True) # Use a grid over parameters of interest param_

    -1热度

    1回答

    我的机器学习研究。 我已经研究了一些关于确定svm参数范围的文档。 它们中的一些提供的10诸如功率[1,10,100,..]和另一者提供的2如功率[0.03125,0.125,0.5,2,8,...]。 我想使用sklearn包的网格搜索来运行svm。 我不知道这些范围中的哪一个是合适的。 他们之间有什么不同?

    4热度

    1回答

    我在想两个不同分类器的超参数是否存在某种相关性。 例如:让我们说,我们与最佳超参数(通过GridSearch找到)数据集运行LogisticRegression,并希望对同一数据集运行另一个分类像SVC(SVM分类),而不是使用GridSearch找到所有的超参数,我们是否可以修复一些超参数的值(或减少范围来限制GridSearch的搜索空间)? 作为一个实验,我用scikit-learn的分类像

    0热度

    2回答

    我目前尝试构建具有多个输出的MLP。 对于单输出MLPs我通常使用H2o打包实现,它具有很好的随机网格搜索功能。由于H2o不支持多个输出,所以我切换到了mxnet软件包。 现在我试图找到一种方法来调整我的MLP参数。我无法在R中找到任何为多个输出提供参数调整的软件包,并允许使用mxnet。 你知道任何软件包还是你有自我实现的超参数搜索功能? 谢谢! 编辑在评论的原因: 具有多个输出的我的意思是多个

    1热度

    1回答

    使用贝叶斯优化和一些启发式选择来使用超参数调整的最佳方式是什么? 在诸如spearmint或hyperopt的软件包中,您可以指定一个范围来探索,但我也想探索一些不一定属于该范围的启发式值。任何建议什么是这样做的最佳做法?