2017-09-27 32 views
2

我使用this项目为例(框架 - caffe,AlexNet的net-mod架构,400个图像用于训练)。我有这样的结果: enter image description here任何人都可以解释这种行为的准确性和我的网络损失?

或本: enter image description here

求解:净

net: "./CDNet/Models/train.prototxt" 
test_iter: 500 
test_interval: 500 
base_lr: 0.001 
lr_policy: "step" 
gamma: 0.1 
stepsize: 100000 
display: 50 
max_iter: 450000 
momentum: 0.9 
weight_decay: 0.0005 
snapshot: 10000 
snapshot_prefix: "./CDNet/Models/Training/cdnet" 
solver_mode: GPU 

型号: enter image description here

任何人能解释的准确度的这种行为和损失我净?我做错了什么?教程

作者得到了这样的结果: enter image description here

UPD: 我改变批量大小从1到12和步骤sizw〜2000结果是在如下图: enter image description here

它每次测试的准确率在0.5左右。

+0

你有没有试图减少到2000步? – greeness

+0

步长是**数量级**到大 – lejlot

+0

@greeness,是的,看到一张图片(** UPD **) – Denis

回答

0

很难做出一个完整的分析不看代码和数据。请注意,0.5二元分类的准确性仅仅是随机猜测。如果网络输出一个常数并且测试集没有偏向一个类,则会得到相同的结果。

从这些图表中可以看出,该模型没有学习。既然你的图表没有训练的准确性,我甚至不知道它是否过度配合(我不相信增强的AlexNet不足)。

据我所知,这项任务需要仔细的数据准备,而且这是一个犯错的可能步骤:检查你的训练和测试数据是否有意义(它们应该是227x227,对于人类来说也是明显可辨认的)检查两套的大小)。仔细检查计算的平均图像和预处理步骤。超参数看起来很合理,据说可以用于这个数据集,所以我一般会信任它。

相关问题