更新时间:2020年06月18日 08:45:03 作者:陈伟鹏2016
这篇文章主要介绍了浅谈keras.callbacks设置模型保存策略,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
如下所示:
keras.callbacks.ModelCheckpoint(self.checkpoint_path,
verbose=0, save_weights_only=True,mode="max",save_best_only=True),
默认是每一次poch,但是这样硬盘空间很快就会被耗光.
将save_best_only 设置为True使其只保存最好的模型,值得一提的是其记录的acc是来自于一个monitor_op,其默认为"val_loss",其实现是取self.best为 -np.Inf. 所以,第一次的训练结果总是被保存.
mode模式自动为auto 和 max一样,还有一个min的选项...应该是loss没有负号的时候用的....
https://keras.io/callbacks/
浏览上面的文档.
# Print the batch number at the beginning of every batch.
batch_print_callback = LambdaCallback(
on_batch_begin=lambda batch,logs: print(batch))
# Stream the epoch loss to a file in JSON format. The file content
# is not well-formed JSON but rather has a JSON object per line.
import json
json_log = open('loss_log.json', mode='wt', buffering=1)
json_logging_callback = LambdaCallback(
on_epoch_end=lambda epoch, logs: json_log.write(
json.dumps({'epoch': epoch, 'loss': logs['loss']}) + '\n'),
on_train_end=lambda logs: json_log.close()
# Terminate some processes after having finished model training.
processes = ...
cleanup_callback = LambdaCallback(
on_train_end=lambda logs: [
p.terminate() for p in processes if p.is_alive()])
model.fit(...,
callbacks=[batch_print_callback,
json_logging_callback,
cleanup_callback])
Keras的callback 一般在model.fit函数使用,由于Keras的便利性.有很多模型策略以及日志的策略.
比如 当loss不再变化时停止训练
keras.callbacks.EarlyStopping(monitor='val_loss', min_delta=0, patience=0, verbose=0, mode='auto', baseline=None, restore_best_weights=False)
比如日志传送远程服务器等,以及自适应的学习率scheduler.
确实很便利....
补充知识:
keras callbacks常用功能如ModelCheckpoint、ReduceLROnPlateau,EarlyStopping等
ModelCheckpoint:
keras.callbacks.ModelCheckpoint(filepath,monitor='val_loss',verbose=0,save_best_only=False, save_weights_only=False, mode='auto', period=1)
filename:字符串,保存模型的路径(可以将模型的准确率和损失等写到路径中,格式如下:)
ModelCheckpoint('model_check/'+'ep{epoch:d}-acc{acc:.3f}-val_acc{val_acc:.3f}.h5',monitor='val_loss')
还可以添加损失值等如
‘loss{loss:.3f}-val_loss{val_loss:.3f}'
monitor:需要检测的值如测试集损失或者训练集损失等
save_best_only:当设置为True时,监测值有改进时才会保存当前的模型
verbose:信息展示模式,0或1(当为1时会有如下矩形框的信息提示)
mode:‘auto',‘min',‘max'之一,在save_best_only=True时决定性能最佳模型的评判准则,例如,当监测值为val_acc时,模式应为max,当监测值为val_loss时,模式应为min。在auto模式下,评价准则由被监测值的名字自动推断。
save_weights_only:若设置为True,则只保存模型权重,否则将保存整个模型
period:CheckPoint之间的间隔的epoch数
参考代码如下:
在使用时传递给fit中callbacks即可
checkpoint = ModelCheckpoint(log_dir + "ep{epoch:03d}-loss{loss:.3f}-
val_loss{val_loss:.3f}.h5",
monitor='val_loss', save_weights_only=True,
save_best_only=True, period=1)
train_history=model.fit_generator(data_generator_wrap(),
steps_per_epoch=max(1, num_train//batch_size),
validation_data=data_generator_wrap(),
validation_steps=max(1, num_val//batch_size),
epochs=40,
initial_epoch=0,callbacks=[logging, reduce_lr,checkpoint])
ReduceLROnPlateau:
keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.1, patience=10, verbose=0, mode='auto', epsilon=0.0001, cooldown=0, min_lr=0)
当评价指标不在提升时,减少学习率
当学习停滞时,减少2倍或10倍的学习率常常能获得较好的效果。该回调函数检测指标的情况,如果在patience个epoch中看不到模型性能提升,则减少学习率
monitor:被监测的量
factor:每次减少学习率的因子,学习率将以lr = lr*factor的形式被减少
patience:当patience个epoch过去而模型性能不提升时,学习率减少的动作会被触发
mode:‘auto',‘min',‘max'之一,在min模式下,如果检测值触发学习率减少。在max模式下,当检测值不再上升则触发学习率减少。
epsilon:阈值,用来确定是否进入检测值的“平原区”
cooldown:学习率减少后,会经过cooldown个epoch才重新进行正常操作
min_lr:学习率的下限
参考代码如下:
reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.1, patience=3, verbose=1)
train_history = model.fit(data(),validation_data=datae_g(),epochs=40,callbacks=[logging, reduce_lr, checkpoint])
EarlyStopping
keras.callbacks.EarlyStopping(monitor='val_loss', patience=0, verbose=0, mode='auto')
当监测值不再改善时,该回调函数将中止训练
monitor:需要监视的量
patience:当early stop被激活(如发现loss相比上一个epoch训练没有下降),则经过patience个epoch后停止训练。
verbose:信息展示模式
mode:‘auto',‘min',‘max'之一,在min模式下,如果检测值停止下降则中止训练。在max模式下,当检测值不再上升则停止训练。
以上这篇浅谈keras.callbacks设置模型保存策略就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
您可能感兴趣的文章:
-
-
使用Python编写电脑定时关机小程序
这篇文章主要为大家详细介绍了如何使用Python编写电脑定时关机小程序,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下
2024-01-01
-
-
-
python开发一款翻译工具
这篇文章主要介绍了如何用python开发一款翻译工具,帮助大家更好的理解和学习python,感兴趣的朋友可以了解下
2020-10-10
-
一文详解Python中哈希表的使用
哈希表或称为散列表,是一种常见的、使用频率非常高的数据存储方案。本文将站在开发者的角度,带着大家一起探究哈希的世界,感兴趣的小伙伴可以跟随小编一起学习一下
2022-05-05
-
-
python获得一个月有多少天的方法
这篇文章主要介绍了python获得一个月有多少天的方法,涉及Python中datetime模块操作日期的相关技巧,需要的朋友可以参考下
2015-06-06
-
Python 支付整合开发包的实现
这篇文章主要介绍了Python 支付整合开发包的实现,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
2019-01-01
-
-
详解python持久化文件读写
这篇文章主要介绍了python持久化文件读写,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
2019-04-04