2017-12-27 296 views
1

我建立keras简单LSTM模型和训练有素如下:keras恢复训练不同的学习速度

model = Sequential() 
model.add(LSTM(activation='tanh',input_dim=6,output_dim=50,return_sequences=False)) 
model.add(Dense(output_dim=1,activation = 'sigmoid')) 
model.compile(loss='binary_crossentropy', optimizer =optimizers.Adam(lr = 0.01),metrics=['accuracy']) 
model.fit(X_train,y_train,batch_size=256,nb_epoch=1000,validation_data = (X_test,y_test)) 
model.save('model_params.h5') 

该模型几乎收敛。因此,我想通过使用较小的学习率(即0.001)恢复训练来微调模型。我怎么能做到这一点?

+0

当你保存keras模型时,它也保存了优化器的状态。只要检查'load_model'代码,你会发现一个解决方法 – Nain

+0

@Nain我知道。但我想改变优化器(它的学习速率)本身。我想知道是否需要重建模型并编译模型,使用之前模型的参数来初始化它。 – MTANG

+0

你需要再次编译它 – Nain

回答

0

你只需要重新编译模型:

model.compile(loss='binary_crossentropy', 
       optimizer= optimizers.Adam(lr=0.001),...) 

但通常Adam是一个很好的优化,并不需要这些变化。它单独找到它的方式是很正常的。

当您使用新的优化器进行编译时,训练发散是非常正常的。它需要几个时代,直到优化器自行调整。

+0

难题。谢谢。 – MTANG

+0

谢谢。但作为新用户,我不知道如何将其标记为已回答。我在哪里可以找到按钮? – MTANG