keras恢复训练不同的学习速度
我建立keras简单LSTM模型和训练有素如下:keras恢复训练不同的学习速度
model = Sequential() model.add(LSTM(activation='tanh',input_dim=6,output_dim=50,return_sequences=False))
model.add(Dense(output_dim=1,activation = 'sigmoid'))
model.compile(loss='binary_crossentropy', optimizer =optimizers.Adam(lr = 0.01),metrics=['accuracy'])
model.fit(X_train,y_train,batch_size=256,nb_epoch=1000,validation_data = (X_test,y_test))
model.save('model_params.h5')
该模型几乎收敛。因此,我想通过使用较小的学习率(即0.001)恢复训练来微调模型。我怎么能做到这一点?
回答:
你只需要重新编译模型:
model.compile(loss='binary_crossentropy', optimizer= optimizers.Adam(lr=0.001),...)
但通常Adam
是一个很好的优化,并不需要这些变化。它单独找到它的方式是很正常的。
当您使用新的优化器进行编译时,训练发散是非常正常的。它需要几个时代,直到优化器自行调整。
以上是 keras恢复训练不同的学习速度 的全部内容, 来源链接: utcz.com/qa/266014.html