keras恢复训练不同的学习速度

我建立keras简单LSTM模型和训练有素如下:keras恢复训练不同的学习速度

model = Sequential() 

model.add(LSTM(activation='tanh',input_dim=6,output_dim=50,return_sequences=False))

model.add(Dense(output_dim=1,activation = 'sigmoid'))

model.compile(loss='binary_crossentropy', optimizer =optimizers.Adam(lr = 0.01),metrics=['accuracy'])

model.fit(X_train,y_train,batch_size=256,nb_epoch=1000,validation_data = (X_test,y_test))

model.save('model_params.h5')

该模型几乎收敛。因此,我想通过使用较小的学习率(即0.001)恢复训练来微调模型。我怎么能做到这一点?

回答:

你只需要重新编译模型:

model.compile(loss='binary_crossentropy', 

optimizer= optimizers.Adam(lr=0.001),...)

但通常Adam是一个很好的优化,并不需要这些变化。它单独找到它的方式是很正常的。

当您使用新的优化器进行编译时,训练发散是非常正常的。它需要几个时代,直到优化器自行调整。

以上是 keras恢复训练不同的学习速度 的全部内容, 来源链接: utcz.com/qa/266014.html

回到顶部