我有一个隐藏层输出数字A的神经网络,然后我使用了一个使用A生成一个向量的函数。问题是TF可以在反向传播时正确处理这个问题吗?我曾在TF中尝试过,它可以输出一些东西,但我仍然不确定bp是否正常工作。 顺便说一句,我用于生成从一个数矢量的功能是(V是从先前层的输出,d是一个值I进料在,G是常数): def Generator(d, V):
dmn = []
for k in ran
这是一个可能的重复Tensorflow: How to get gradients per instance in a batch?。无论如何,我都会问这个问题,因为没有一个令人满意的答案,这里的目标有点不同。 我有一个非常大的网络,我可以放在我的GPU上,但是我可以提供的最大批处理大小是32.任何比这更大的图像会导致GPU耗尽内存。我想要使用更大的批次以获得更精确的渐变近似值。 为了具体说明
所以,我使用的是迈克尔·尼尔森的机器学习本书作为我的代码引用(这基本上是相同的):http://neuralnetworksanddeeplearning.com/chap1.html 有问题的代码: def backpropagate(self, image, image_value) :
# declare two new numpy arrays for the update