2

我使用Deep学习朱古力框架图像分类。
我有面孔的硬币。他们中的一些人被留下来,其中一些人是对的。卷积ImageNet网络是不变的翻转图像

要进行归类,我使用常见的形式给出 - 采取从预训练ImageNet网络的权重和结构已经俘获了不少的图像模式和训练大多是最后一层,以适应我的训练集。

但我发现netowork不适用于这个集合: 我已经拿了一些硬币,例如leftdirected,生成水平翻转的图像,并将其标记为右侧。

right sided face

对于这组卷积净得约50%的准确率,正是随机结果。

我也曾尝试训练2幅图像(2翻转“H”字母的版本)网。但是同样的结果 - 50%。 (如果我选择不同的字母和训练数据集 - 我非常快速地收到100%的准确性)。但不变翻转我的分类。

enter image description here enter image description here

我的问题是:是存在一定的形式给出了该allowes我使用预训练imagenet的优势,但不知何故破这个不变性。网上什么层可以使不变。

我使用“朱古力”基于这个例子的做法产生净:训练有素的图像净

https://github.com/BVLC/caffe/blob/master/examples/02-fine-tuning.ipynb

+0

请问您的数据集具有相同的硬币或多个硬币的图像? – malreddysid

+0

@malreddysid:不同的硬币。 – Oleg

回答

3

来自Caffe基本/基准车型大多使用非常琐碎的图像增强:水平翻转图像。也就是说,imagenet类在水平翻转时确实是相同的。因此,您要微调的重量在水平翻转,应该被忽略的设置进行了培训,我想你看到的是,拍摄到这张相当不错的净 - 它不再是这个特殊的转型敏感。
这是不平凡的告诉这个不变性发生净的哪一层,因此它是不容易说什么层应该是微调,以克服这种行为。我认为这种不变性对网络来说是非常重要的,如果需要对整个网络进行重新培训,我不会感到意外。