0
这是什么意思,如果这是tf.losses.softmax_cross_entropy_loss
的返回值?softmax交叉熵返回值
<tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32>
这是否是事实陈述value:0
平均和shape=()
意味着什么也没计算的?
这是什么意思,如果这是tf.losses.softmax_cross_entropy_loss
的返回值?softmax交叉熵返回值
<tf.Tensor 'softmax_cross_entropy_loss/value:0' shape=() dtype=float32>
这是否是事实陈述value:0
平均和shape=()
意味着什么也没计算的?
什么都没有计算出来,因为在任何数据通过它们之前,您都在图中显示张量。比方说,
sce = tf.losses.softmax_cross_entropy_loss(input)
然后使用
sess = tf.Session()
...
loss = sess.run(sce, feed_dict)
其中feed_dict是字典为您的数据真正得到你必须将数据提供给它的损耗值。现在损失将返回实际的数字损失值。
value
只是该值所属的一组计算的指标。例如:tf.reduce_mean
返回tf.Tensor 'Mean_1:0' shape=() dtype=float32
,因为它是一个平均值计算。 0并不意味着它的当前值是0,它只是用于索引。
此外,张量形状为()
,因为单个损失值没有批量大小,x或y方向或通道(假设您正在使用4维张量),因此也可以。