我刚刚通过TensorFlow
教程(https://www.tensorflow.org/versions/r0.8/tutorials/mnist/pros/index.html#deep-mnist-for-experts)。TensorFlow交叉熵教程
我对此两个问题:
为什么它使用
cost function with y_ * log(y)
?难道不是y_ * log(y) + (1-y_) * log(1-y)
?TensorFlow
如何计算我使用cost function
的gradient
?我们不应该在某个地方告诉TensorFlow
如何计算gradient
?
谢谢!
渐变下降功能已编程。你可以挖掘源代码来找到它。 –