4
Tensorflow函数tf.nn.weighted_cross_entropy_with_logits()
采用参数pos_weight
。 documentation将pos_weight
定义为“在正例上使用的系数”。我认为这意味着增加pos_weight
会增加误报造成的损失,并减少漏报造成的损失。或者我有这个倒退?Tensorflow:加权交叉熵中权重的解释
Tensorflow函数tf.nn.weighted_cross_entropy_with_logits()
采用参数pos_weight
。 documentation将pos_weight
定义为“在正例上使用的系数”。我认为这意味着增加pos_weight
会增加误报造成的损失,并减少漏报造成的损失。或者我有这个倒退?Tensorflow:加权交叉熵中权重的解释
其实,这是相反的。引用文档:
的争论
pos_weight
作为乘数为正 目标。
因此,假设你有5
数据集中的和积极的例子7
负,如果设置了pos_weight=2
,那么你的损失将是,如果你有10
正例7
负。
假设您得到的所有正面例子都是错的,而且都是负面的。最初你会有5
错误的否定和0
误报。当您增加pos_weight
时,漏报的数量将会人为增加。请注意,来自误报的损失值不会改变。
谢谢。因此,如果使用具有2个以上类别和1个热点事实标签的互斥分类器,增加pos_weight会导致所有情况下的误差都会增加,并带有错误的估计值,而具有正确估计值的情况则保持不变(因为正确的估计值丢失,估计个案为零)? –
放大所有情况下的损失*错误否定*,但是,我想是的。 – sygi