编辑 警告:下面举例说明以下问题中的例子使用GenericLikelihoodModel
。 然而,在伽马分布的情况下,位置参数改变了对最大似然估计的一般假设排除的分布的支持。更标准的用法将修复支持,floc = 0,所以它只是一个双参数分布。在那种情况下,标准的MLE理论适用。
Statsmodels有一个最大似然估计的泛型类,GenericLikelihoodModel
。它不是直接为这种情况设计的,但可以使用一些帮助(定义属性并提供start_params)。
import numpy as np
from statsmodels.base.model import GenericLikelihoodModel
from scipy.stats import gamma
shape = 12; loc = 0.71; scale = 0.0166
data = gamma.rvs(shape, loc=loc, scale=scale, size=1000)
params = gamma.fit(data) # params close to but not the same as (shape, loc, scale)
# HOW TO ESTIMATE/GET ERRORS FOR EACH PARAM?
print(params)
print('\n')
class Gamma(GenericLikelihoodModel):
nparams = 3
def loglike(self, params):
return gamma.logpdf(self.endog, *params).sum()
res = Gamma(data).fit(start_params=params)
res.df_model = len(params)
res.df_resid = len(data) - len(params)
print(res.summary())
这将打印基于最大似然估计以下
(10.31888758604304, 0.71645502437403186, 0.018447479022445423)
Optimization terminated successfully.
Current function value: -1.439996
Iterations: 69
Function evaluations: 119
Gamma Results
==============================================================================
Dep. Variable: y Log-Likelihood: 1440.0
Model: Gamma AIC: -2872.
Method: Maximum Likelihood BIC: -2852.
Date: Sun, 12 Jul 2015
Time: 04:00:05
No. Observations: 1000
Df Residuals: 997
Df Model: 3
==============================================================================
coef std err z P>|z| [95.0% Conf. Int.]
------------------------------------------------------------------------------
par0 10.3187 2.242 4.603 0.000 5.925 14.712
par1 0.7165 0.019 37.957 0.000 0.679 0.753
par2 0.0184 0.002 8.183 0.000 0.014 0.023
==============================================================================
其他结果然后也可用,例如一个Z测试,所述第一参数为10可以像通过指定执行一个限制矩阵,或通过使用一个字符串表达式与等式:
>>> res.t_test(([1, 0, 0], [10]))
<class 'statsmodels.stats.contrast.ContrastResults'>
Test for Constraints
==============================================================================
coef std err z P>|z| [95.0% Conf. Int.]
------------------------------------------------------------------------------
c0 10.3187 2.242 0.142 0.887 5.925 14.712
==============================================================================
>>> res.t_test('par0=10')
<class 'statsmodels.stats.contrast.ContrastResults'>
Test for Constraints
==============================================================================
coef std err z P>|z| [95.0% Conf. Int.]
------------------------------------------------------------------------------
c0 10.3187 2.242 0.142 0.887 5.925 14.712
==============================================================================
非常感谢,我使用在http://scipy-central.org/item/36/2/error-estimates描述自举方法 - 用于配合巴从最小二乘法拟合使用引导重采样,但你给的答案似乎更完整,并允许我应用更多的测试。不过,我想知道为什么在这个过程中,我运行了几次相同的脚本后,得到了(有时非常不同的)参数结果。这是正常的吗?例如,c0在8到20之间变化(当然,更改标准错误)。再次感谢 – iluvatar
请注意,我使用scipy拟合结果作为GenericLikelihoodModel的起始参数。一般来说,这可能不具有良好的默认开始值,并且在某些情况下,目标函数的曲率“不好”。我不知道Gamma分布的三个参数表现得有多好。也许“流动购物”将为优化提供一个成功的全球最小值。 – user333700
另一个一般性评论:我的猜测是,我们通常会将'loc'设置为固定为零以模拟正值数据。估计分布支持的最大可能性往往或一般存在问题。 – user333700