2016-05-17 144 views
0

我有一个多索引熊猫数据框的数值。我希望使用其他两个数据子集对数据框子集中的每一行进行排序。我相信下面的例子会更好地说明我需要什么:多索引熊猫DataFrame顺序排序

考虑这个例子的数据集:

      A   B   C   D 
rtr 2015-01-31 -1.085631 -0.204201 1.730024 1.710438 
    2015-02-28 0.997345 1.979348 1.232650 -0.056341 
key1 2015-01-31 6.180000 0.990000 2.440000 1.920000 
    2015-02-28 1.140000 1.810000 4.560000 0.740000 
key2 2015-01-31 86.000000 36.000000 61.000000 34.000000 
    2015-02-28 97.000000 96.000000 48.000000 98.000000 

考虑的key1的最后一行,key2rtr下日期2015-02-28

  1. df.loc['key1']中,获取2个最大值的列名。 (即:C,B)
  2. 从列空间中排除C和B列。 (即:cols剩余:A,D)
  3. in df.loc['key2'],获取剩余列空间中最大值的列名称。 (即:在列A和d值,d是较大的 - >返回d)
  4. 取对应的值从df.loc['rtr']对应于在步骤1和3(即发现的列名:返回值df.loc['rtr'].loc['20150228',['C','B','D']]
In [140]: df.loc['rtr'].loc['20150228',['C','B','D']] 
Out[140]: 
C 1.232650 
B 1.979348 
D -0.056341 
Name: 2015-02-28 00:00:00, dtype: float64 

例如数据生成代码:

## generate data: 
d1,d2,d3 = {},{},{} 
np.random.seed(123) 
for col in list("ABCD"): 
    d1[col] = np.random.randn(2) 
    d2[col] = np.random.gamma(2,3,2).round(2) 
    d3[col] = np.random.random_integers(0,100, 2) 
t_index = pd.date_range(start = '2015-01-31', periods = 2, freq = "M") 

dat1 = pd.DataFrame(d1, index = t_index) 
dat2 = pd.DataFrame(d2, index = t_index) 
dat3 = pd.DataFrame(d3, index = t_index) 

df = pd.concat([dat1, dat2, dat3], keys = ['rtr', 'key1', 'key2']) 
+0

它仍然不清楚你想要什么。 – piRSquared

+0

你好,你能否澄清哪一部分不清楚? –

+1

您对仅适用于'2015-01-31'的示例数据应用了星号。提供一个更好的理解预期产出会是什么样子会有所帮助。当我看到需要回答的问题时,我会对我认为需要多长时间回答问题作出判断。然后我平衡这与我目前的工作量。最后,如果我在阅读这个问题时my目结舌,我会跳过它。让人们尽可能容易地阅读和理解,这对你最有利。 – piRSquared

回答

1

步骤1:解决给定日期的问题。

df1 = df.xs('2015-01-31', level=1) 

columns = df1.loc['key1'].nlargest(2).index.tolist() 
columns.append(df1.loc['key2'][df.columns.difference(columns)].idxmax()) 
df1.loc['rtr', columns] 

我们使用nlargest和拍摄效果的指标,因为idxmax只适用于一个最大值。我们在下面一行中使用idxmax,排除之前列有大熊猫索引difference方法的列。

步骤2:使用groupby将上述解决方案分别应用于每个日期。

def func(df2): 
    df1 = df2.reset_index(level=1, drop=True) 
    columns = df1.loc['key1'].nlargest(2).index.tolist() 
    columns.append(df1.loc['key2'][df.columns.difference(columns)].idxmax()) 
    return df1.loc['rtr', columns] 

df.groupby(level=1).apply(func) 

reset_index增加,因为在与xs相反,groupby不下降的指数水平。

+1

优秀的解决方案!我可能会决定在第二步中使用'nlargest(m).index.tolist()',因为这是为了推广到一个更大的数据集和每个键的多个选择。我从来没有想过要使用'groupby',因为我一直在与'np.argsort'和'df.apply'战斗。感谢代码! –