2017-07-28 2840 views
2

我正在尝试为决策树找到ROC曲线和AUROC曲线。我的代码是像如何获得决策树的ROC曲线?

clf.fit(x,y) 
y_score = clf.fit(x,y).decision_function(test[col]) 
pred = clf.predict_proba(test[col]) 
print(sklearn.metrics.roc_auc_score(actual,y_score)) 
fpr,tpr,thre = sklearn.metrics.roc_curve(actual,y_score) 

输出:

Error() 
'DecisionTreeClassifier' object has no attribute 'decision_function' 

基本上,错误是来了,而找到y_score。请解释什么是y_score,以及如何解决这个问题?

回答

4

首先,DecisionTreeClassifier没有属性decision_function

如果我从你的代码的结构猜测,您看到这个example

在这种情况下,分类不在决策树,但它是支持decision_function方法OneVsRestClassifier。

你可以看到DecisionTreeClassifierhere

可用属性的一种可能的方法来做到这一点是双稳态类,然后计算每个类的AUC:

例子:

from sklearn.metrics import roc_curve, auc 
from sklearn.model_selection import train_test_split 
from sklearn.preprocessing import label_binarize 
from sklearn.tree import DecisionTreeClassifier 
from scipy import interp 


iris = datasets.load_iris() 
X = iris.data 
y = iris.target 

y = label_binarize(y, classes=[0, 1, 2]) 
n_classes = y.shape[1] 

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.5, random_state=0) 

classifier = DecisionTreeClassifier() 

y_score = classifier.fit(X_train, y_train).predict(X_test) 

fpr = dict() 
tpr = dict() 
roc_auc = dict() 
for i in range(n_classes): 
    fpr[i], tpr[i], _ = roc_curve(y_test[:, i], y_score[:, i]) 
    roc_auc[i] = auc(fpr[i], tpr[i]) 

# Compute micro-average ROC curve and ROC area 
fpr["micro"], tpr["micro"], _ = roc_curve(y_test.ravel(), y_score.ravel()) 
roc_auc["micro"] = auc(fpr["micro"], tpr["micro"]) 

#ROC curve for a specific class here for the class 2 
roc_auc[2] 

结果

0.94852941176470573 
0

认为,对于一个决策树,您可以使用.predict_proba()代替.decision_function(),所以你会得到如下的内容:

y_score = classifier.fit(X_train, y_train).predict_proba(X_test) 

然后,代码的其余部分将是相同。 事实上,从scikit的roc_curve功能学习可以采取两种类型的输入: “目标分数,可以是正类的概率估计,置信度值,或决定(如返回非阈值的测量‘decision_function’上一些分类器)“。 有关更多详细信息,请参阅here