2017-06-21 231 views
0

我正在学习如何使用scikit-learn开发反向传播神经网络。我仍然对如何在我的神经网络中实现k-fold交叉验证感到困惑。我希望你们能帮助我。我的代码如下:在MLPClassification中实现K-fold交叉验证Python

import numpy as np 
from sklearn.model_selection import KFold 
from sklearn.neural_network import MLPClassifier 

f = open("seeds_dataset.txt") 
data = np.loadtxt(f) 

X=data[:,0:] 
y=data[:,-1] 
kf = KFold(n_splits=10) 
X_train, X_test, y_train, y_test = X[train], X[test], y[train], y[test] 
clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5, 2), random_state=1) 
clf.fit(X, y) 
MLPClassifier(activation='relu', alpha=1e-05, batch_size='auto', 
     beta_1=0.9, beta_2=0.999, early_stopping=False, 
     epsilon=1e-08, hidden_layer_sizes=(5, 2), learning_rate='constant', 
     learning_rate_init=0.001, max_iter=200, momentum=0.9, 
     nesterovs_momentum=True, power_t=0.5, random_state=1, shuffle=True, 
     solver='lbfgs', tol=0.0001, validation_fraction=0.1, verbose=False, 
     warm_start=False) 
+1

我认为你的意图是你想做kfold分裂和得分。你可以使用['cross_val_score'](http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html)。它会为你做Kfold,同时也会生成分数列表。 –

回答

3

不要将您的数据拆分为火车和测试。这由KFold交叉验证自动处理。

from sklearn.model_selection import KFold 
kf = KFold(n_splits=10) 
clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5, 2), random_state=1) 

for train_indices, test_indices in kf.split(X): 
    clf.fit(X[train_indices], y[train_indices]) 
    print(clf.score(X[test_indices], y[test_indices])) 

KFold验证将您的数据集划分为n个相等的公平部分。然后将每个部分分成测试和训练。有了它,您可以对模型的准确性进行相当准确的度量,因为它在相当分散的数据的小部分上进行了测试。

+0

我的预测准确性是0%我不知道我做错了什么 –

+0

@Trung随着代码?不,我以前用这个效果很好。您的数据可能存在问题。检查以确保'X'和'y'具有相同的长度,并且'X [i]'中的每个值都对应于'y [i]'。把打印语句检查。 –

+0

你也可以尝试'clf = MLPClassifier(solver ='lbfgs',alpha = 1e-5,hidden_​​layer_sizes =(5,2),random_state = 1,verbose = True)'并且在训练期间看它打印什么。 –