2017-07-17 129 views
0

这是什么意思,如果这是tf.losses.softmax_cross_entropy_loss的返回值?softmax交叉熵返回值

<tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32> 

这是否是事实陈述value:0平均和shape=()意味着什么也没计算的?

回答

2

什么都没有计算出来,因为在任何数据通过它们之前,您都在图中显示张量。比方说,

sce = tf.losses.softmax_cross_entropy_loss(input) 

然后使用

sess = tf.Session() 
... 
loss = sess.run(sce, feed_dict) 

其中feed_dict是字典为您的数据真正得到你必须将数据提供给它的损耗值。现在损失将返回实际的数字损失值。

value只是该值所属的一组计算的指标。例如:tf.reduce_mean返回tf.Tensor 'Mean_1:0' shape=() dtype=float32,因为它是一个平均值计算。 0并不意味着它的当前值是0,它只是用于索引。

此外,张量形状为(),因为单个损失值没有批量大小,x或y方向或通道(假设您正在使用4维张量),因此也可以。