cross-validation

    0热度

    1回答

    我想了解我是否可以以及是否有效使用SGD培训您的MNB模型。我的应用程序是文本分类。在sklearn我发现没有MNB可用,并且默认情况下它是SVM,但是NB是线性模型,不是吗? 所以,如果我的可能性参数(拉普拉斯平滑)可估计为 我能更新我的SGD参数和最小化成本函数? 请让我知道如果SGD在这里无关紧要。提前致谢。 更新: 所以我得到了答案,并希望我明白了,MNB的参数由给定输入文本中的词occu

    0热度

    1回答

    是否可以使用Keras's scikit-learn API和fit_generator()方法?或者用另一种方式产生批次进行培训?我使用SciPy的稀疏矩阵,在输入到Keras之前必须将其转换为NumPy数组,但由于高内存消耗,我无法同时转换它们。这里是我的功能以便产生批次: def batch_generator(X, y, batch_size): n_splits = len(X

    0热度

    1回答

    我在进行交叉验证,其中来自同一组的样本不能在列车和测试中进行。 Python具有Sklearn函数GroupKFold。 R或脱字符有类似吗?

    0热度

    1回答

    我正在构建两个不同的分类器来预测二进制输出。然后我想通过使用ROC曲线和它下面的面积(AUC)比较两个模型的结果。 我将数据集分为训练集和测试集。在训练集上,我执行一种交叉验证的形式。从交叉验证的保留样本中,我可以为每个模型建立ROC曲线。然后,我使用测试集上的模型并构建另一组ROC曲线。 结果是矛盾的,这使我感到困惑。我不确定哪个结果是正确的,或者我是否做了完全错误的事情。示例ROC曲线显示RF

    4热度

    1回答

    我想在并行外循环中运行一个包含for循环(应该并行运行)的函数。因此,它看起来像下面这样: void myfunction(){ ... #pragma omp parallel for for (int i=0;i<10;i++){ do something... } } int main(){ #pragma omp par

    0热度

    2回答

    我有一个目标数据集,我将其分成5个非重叠的折叠。 在每次迭代中(总迭代== 5),我使用1倍(我们称之为fold_for_tuning)进行参数调整,并使用4次折叠进行测试。 原因是我想做域自适应,并且在调整之前,我将源数据拟合到分类器中,并且我正在使用目标数据的小子集进行调整)。 我打电话GridSearchCV和适应fold_for_tuning的,也是我经过一堆参数,我想调: param_t

    1热度

    1回答

    我不确定我是否错过了一些非常简单的事情,但我很难尝试将某些内容展示出来。 我可以看到在scikit-learn中有cross_val_score和cross_val_predict函数。但是,我无法找到一种方法来一次性获得分数和预测。看起来非常明显,因为一个接一个地调用函数会浪费计算时间。是否有cross_val_score_predict函数或类似函数?

    0热度

    1回答

    我使用代码来运行交叉验证,返回ROC分数。 rf = RandomForestClassifier(n_estimators=1000,oob_score=True,class_weight = 'balanced') scores = cross_val_score (rf, X,np.ravel(y), cv=10, scoring='roc_auc') 我怎样才能回到中华民国基于 ro

    0热度

    1回答

    10倍验证中,在每次折叠开始时,用一组新的随机数初始化权重?或者,第k次学习的权重是否作为第(k + 1)次的初始权重?

    0热度

    1回答

    我试图在使用scikit-learn KFold分割数据的Keras和Theano后端的图像分类网络上运行交叉验证。然而,训练运行良好3倍,并在GPU上出现内存不足错误。 我没有做任何事情来在每次折叠结束时释放GPU内存。有人可以告诉我是否可以在开始新的折叠之前清除GPU内存。 谢谢。