hyperparameters

    4热度

    2回答

    我正在使用Scikit-Learn自定义管道(sklearn.pipeline.Pipeline)与RandomizedSearchCV一起进行超参数优化。这很好。 现在我想插入Keras模型作为管道的第一步。模型的参数应该被优化。计算出来的(拟合的)Keras模型应该稍后在其他步骤中用于流水线中,所以我认为我必须将模型存储为全局变量,以便其他流水线步骤可以使用它。这是正确的吗?我知道Keras为

    1热度

    1回答

    目前我正在试图拿出一个新的结构为CLDNN(卷积,LSTM,深层神经网络) ,就像任何其他的网络,我有困难的时候,优化超参数。 我想尝试网格搜索和随机搜索,以获得最佳的超参数集,但我不清楚几件事情。 如果我用一组临时超参数运行网络模拟,我该如何衡量超参数的“好处”?我正在考虑在每次模拟的N个时代后记录成本和训练精度。由于每次模拟需要相对较长的时间(对于我的网络来说,需要大约70秒来训练一个时期),

    0热度

    1回答

    我正在尝试使用Scala中的GridSearch API for H2O。我发现this文档说明了在R和Python中要做什么,但是Java文档在实际获得最佳模型之前停止。有人能告诉我最后几行吗? IE给出Grid<MP>我怎么能得到最好的超参数组合或最好的模型? 编辑 这里是我的代码看起来到目前为止(它在斯卡拉但很明显,我打电话到内H2O Java代码)。 private[this] def h

    1热度

    2回答

    我使用PySpark 2.0进行Kaggle比赛。我想知道模型(RandomForest)的行为取决于不同的参数。 ParamGridBuilder()允许为单个参数指定不同的值,然后执行(我猜)整个参数集的笛卡尔乘积。假设我DataFrame已定义: rdc = RandomForestClassifier() pipeline = Pipeline(stages=STAGES + [rdc]

    3热度

    2回答

    我正在寻找一个直接在Tensorflow(不是Keras或Tflearn)中编写的代码的超参数调谐包。你能提出一些建议吗?

    1热度

    1回答

    我最近遇到了插入符号trainControl()函数中的随机搜索选项。插入符号如何生成参数,以及是否有方法提供某种用户特定的输入(例如,参数从哪个分布中采样)?在website我才发现这句话: 包含在插入符号 内置机型中包含的代码来生成随机调整参数组合 例如,我试图mxnet与插入符和随机搜索: # Train control with random search rs_control <- t

    1热度

    2回答

    我想用keras建立一个非线性回归模型来预测+ ve连续变量。 对于以下模型,我如何选择以下超参数? 隐藏层数和神经元 降比率 使用BatchNormalization或不 激活函数出线性的,RELU,双曲正切,乙状结肠 最佳优化器亚当中使用,rmsprog, SGD 代码 def dnn_reg(): model = Sequential() #layer 1 mo

    1热度

    1回答

    比方说,我们正试图找到RandomForestClassifier的最佳参数max_depth。我们使用RandomizedSearchCV: from scipy.stats import randint as sp_randint from sklearn.ensemble import RandomForestClassifier from sklearn.model_selection

    0热度

    1回答

    是否可以使用Keras's scikit-learn API和fit_generator()方法?或者用另一种方式产生批次进行培训?我使用SciPy的稀疏矩阵,在输入到Keras之前必须将其转换为NumPy数组,但由于高内存消耗,我无法同时转换它们。这里是我的功能以便产生批次: def batch_generator(X, y, batch_size): n_splits = len(X

    1热度

    1回答

    我已经运行了网格搜索,并将时代作为超参数之一。现在选择最佳模型后,如何确定为这个特定模型选择了哪个时期? 下面是模型 模型详细信息的摘要: ============== H2OBinomialModel: deeplearning Model ID: dl_grid_model_19 Status of Neuron Layers: predicting Churn, 2-class clas