1
我有下面的代码行:蟒:熊猫GROUPBY&应用优化
df.groupby([col1]).apply(lambda x: x.loc[x[col2] == val, col3].sum()/x.loc[x[col2] == val_0, col3].sum());
我df
是在大侧(〜30万行)和GROUPBY产生〜2300组的基团。 因此,执行时间是相当大的...
关于如何优化它的任何想法?
谢谢先进!
Python版本:3.6