2016-04-14 169 views
21

我正在学习将机器学习分类器的分类变量转换为数字的不同方法。我遇到了pd.get_dummies方法和sklearn.preprocessing.OneHotEncoder(),我想看看它们在性能和使用方面的差异。熊猫的get_dummies与Sklearn的OneHotEncoder()::什么更有效率?

我在https://xgdgsc.wordpress.com/2015/03/20/note-on-using-onehotencoder-in-scikit-learn-to-work-on-categorical-features/上找到了关于如何使用OneHotEnocder()的教程,因为sklearn文档对此功能不太有帮助。我有一种感觉,我没有正确地做...但

可以解释一下使用pd.dummies而不是sklearn.preprocessing.OneHotEncoder(),反之亦然?我知道OneHotEncoder()为您提供了一个稀疏矩阵,但除此之外,我不确定它是如何使用的以及与pandas方法相比的好处。我是否使用效率低下?

import pandas as pd 
import numpy as np 
from sklearn.datasets import load_iris 
sns.set() 

%matplotlib inline 

#Iris Plot 
iris = load_iris() 
n_samples, m_features = iris.data.shape 

#Load Data 
X, y = iris.data, iris.target 
D_target_dummy = dict(zip(np.arange(iris.target_names.shape[0]), iris.target_names)) 

DF_data = pd.DataFrame(X,columns=iris.feature_names) 
DF_data["target"] = pd.Series(y).map(D_target_dummy) 
#sepal length (cm) sepal width (cm) petal length (cm) petal width (cm) \ 
#0     5.1    3.5    1.4    0.2 
#1     4.9    3.0    1.4    0.2 
#2     4.7    3.2    1.3    0.2 
#3     4.6    3.1    1.5    0.2 
#4     5.0    3.6    1.4    0.2 
#5     5.4    3.9    1.7    0.4 

DF_dummies = pd.get_dummies(DF_data["target"]) 
#setosa versicolor virginica 
#0   1   0   0 
#1   1   0   0 
#2   1   0   0 
#3   1   0   0 
#4   1   0   0 
#5   1   0   0 

from sklearn.preprocessing import OneHotEncoder, LabelEncoder 
def f1(DF_data): 
    Enc_ohe, Enc_label = OneHotEncoder(), LabelEncoder() 
    DF_data["Dummies"] = Enc_label.fit_transform(DF_data["target"]) 
    DF_dummies2 = pd.DataFrame(Enc_ohe.fit_transform(DF_data[["Dummies"]]).todense(), columns = Enc_label.classes_) 
    return(DF_dummies2) 

%timeit pd.get_dummies(DF_data["target"]) 
#1000 loops, best of 3: 777 µs per loop 

%timeit f1(DF_data) 
#100 loops, best of 3: 2.91 ms per loop 

回答

17

OneHotEncoder不能直接处理,字符串值。如果您的名义特征是字符串,那么您需要先将它们映射为整数。

pandas.get_dummies是相反的一种。默认情况下,除非指定了列,否则它仅将字符串列转换为单热表示形式。

+0

嘿@nos,对不起,延迟回复你这个答案 –

+0

除此之外,是否有效率高于其他? –