有人告诉我有关这种类型的实验的信息。 第一步是训练cnn并保持权重,第二步是使用这些权重来重新训练此cnn,但这一次将更多数据添加到您的训练集中(微调)。
我想这就像是转移学习,但带有您要训练的cnn。 有没有一种方法可以在训练cnn之前选择权重,然后选择要提交的权重?
所以到目前为止,我的工作是训练cnn模型并将权重保存到h5文件中,并使用以下代码
model.compile(loss='categorical_crossentropy',optimizer=opt,metrics=['accuracy'])
validation_data=(x_testcnn,y_test))
checkpoint_path= 'scratchmodel.best.h5'
save_dir = os.path.join(os.getcwd(),'weights')
cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_path,save_weights_only=True,verbose=1)
cnnhistory=model.fit(x_traincnn,y_train,batch_size=16,epochs=400,validation_data=(x_testcnn,y_test),callbacks=[cp_callback])
现在,我想使用相同的权重来训练相同的cnn,但是这次将数据添加到训练集中。 有没有办法做到这一点? 感谢您的帮助。