我试图在Caffe上训练我自己的网络,类似于Imagenet模型。但是我对作物层感到困惑。直到我了解Imagenet模型中的作物层,在培训期间,它将随机抽取227x227图像作物并训练网络。但是在测试期间,它将采用中心227x227图像裁剪,当我们从256x256图像裁剪中心227x27图像时,我们是不是放松了图像的信息?第二个问题是,我们如何确定在培训期间需要的作物数量?Caffe |通过随机裁剪来增加数据
此外,我还训练了同样的网络(层数相同,FC神经元的卷积大小明显不同),首先从256x256图像获取227x227的作物,然后从256x256图像获取255x255作物。根据我的直觉,255x255作物的模型应该给我最好的结果。但是我用227x227图像获得更高的准确性,任何人都可以向我解释背后的直觉,还是我做错了什么?
我认为这个问题应该得到一个更广泛的答案,描述caffe如何处理“实时”数据增强。非常希望看到这个答案。 – Shai
@Shai Ya thats fine。 – Dharma