tf.keras入门(5) save and restore models

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Feynman1999/article/details/84583977

保存和恢复模型

模型进度可在训练期间和之后保存。这意味着,您可以从上次暂停的地方继续训练模型,避免训练时间过长。此外,可以保存意味着您可以分享模型,而他人可以对您的工作成果进行再创作。发布研究模型和相关技术时,大部分机器学习从业者会分享以下内容:

  • 用于创建模型的代码,以及
  • 模型的训练权重或参数

分享此类数据有助于他人了解模型的工作原理并尝试使用新数据自行尝试模型。

下面介绍的是使用tf.keras的方法保存和恢复模型。要了解其他方法,可以参阅 TensorFlow 保存和恢复指南或在 Eager 中保存

网络结构

这一节只是展示keras的保存、恢复模型的方法。用的是全连接层

img

接口解释

  • 创建ModelCheckpoint类的对象,并fit
times=1
checkpoint_path = "training_{}/cp.ckpt".format(times) #全路径
checkpoint_dir = os.path.dirname(checkpoint_path) #所在文件路径
# Create checkpoint callback
cp_callback = keras.callbacks.ModelCheckpoint(checkpoint_path,
                                              save_weights_only=True,
                                              verbose=1)

model.fit(train_images,train_labels, epochs =10 ,
            validation_data = (test_images, test_labels),
            callbacks = [cp_callback])
#上述代码将创建一个 TensorFlow 检查点文件集合,这些文件在每个周期结束时更新:
  • 载入之前保存的参数(要求网络结构完全一致)

model.load_weights(checkpoint_path)

  • keras还提供了更多的选项,如控制每多少个epoch设置一次检查点,并为生成的检查点提供独一无二的名称:
# 训练一个新模型,每隔 5 个周期保存一次检查点并设置唯一名称:
# include the epoch in the file name. (uses `str.format`)
checkpoint_path = "training_2/cp-{epoch:04d}.ckpt"  #全路径
checkpoint_dir = os.path.dirname(checkpoint_path) #所在文件路径
# Create checkpoint callback
cp_callback = keras.callbacks.ModelCheckpoint(checkpoint_path,
                                              save_weights_only=True,
                                              verbose=1,
                                              period=5)# Save weights, every 5-epochs.
model = create_model()
# model.fit(train_images,train_labels, epochs =50 ,
#             validation_data = (test_images, test_labels),
#             callbacks = [cp_callback],verbose=0)
  • 使用 p a t h l i b pathlib 库:
# Sort the checkpoints by modification time.
checkpoints = pathlib.Path(checkpoint_dir).glob("*.index")
checkpoints = sorted(checkpoints, key=lambda cp:cp.stat().st_mtime)
checkpoints = [cp.with_suffix('') for cp in checkpoints]
latest = str(checkpoints[-1])
# print(checkpoints,'\n',latest)
# 默认的 TensorFlow 格式仅保存最近的 5 个检查点。
print(latest)
model = create_model()
model.load_weights(latest) # 最新的参数
loss, acc = model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))
  • 直接使用 s a v e _ w e i g h t s save\_weights 方法也可以
# 直接用save_weights方法也可以
# Save the weights
model.save_weights('./checkpoints/my_checkpoint')
# Restore the weights
model = create_model()
model.load_weights('./checkpoints/my_checkpoint')

保存整个模型

​ 整个模型可以保存到一个文件中,其中包含权重值、模型配置乃至优化器配置。这样,就可以为模型设置检查点,并稍后从完全相同的状态继续训练,而无需访问原始代码。在 Keras 中保存完全可正常使用的模型非常有用,这样可以在 TensorFlow.js 中加载它们,然后在网络浏览器中训练和运行它们。

​ Keras 使用 HDF5 标准提供基本的保存格式。对于我们来说,可将保存的模型视为一个二进制 blob。

model = create_model()
model.fit(train_images, train_labels, epochs=5)
model.save('my_model.h5')

​ Recreate the exact same model, including weights and optimizer:

new_model = keras.models.load_model('my_model.h5')
new_model.summary()
loss, acc = new_model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))
# 权重值  模型配置(架构) 优化器配置 均会保存
# Keras 通过检查架构来保存模型。目前,它无法保存 TensorFlow 优化器(来自 tf.train)。

小结

  • 注意keras.optimizers.Adam()tf.train.AdamOptimizer()两种优化器的区别
  • 灵活使用保存和恢复模型的方法可以大幅提高效率

Code

import os,pathlib
import tensorflow as tf 
from tensorflow import keras

(train_images, train_labels), (test_images, test_labels) = tf.keras.datasets.mnist.load_data()

train_labels = train_labels[:1000]
test_labels = test_labels[:1000]

# -1表示我不想计算具体值 会自动填补 
print(train_images.shape)
train_images = train_images[:1000].reshape(-1, 28 * 28) / 255.0
test_images = test_images[:1000].reshape(-1, 28 * 28) / 255.0


def create_model():
    model = keras.models.Sequential([
        keras.layers.Dense(512, activation=tf.nn.relu, input_shape=(28*28,)),
        keras.layers.Dropout(0.2),
        keras.layers.Dense(10,activation=tf.nn.softmax)
    ])
    model.compile(optimizer=keras.optimizers.Adam(), # tf.train.AdamOptimizer(), 如果使用tf的优化器 不能随模型整个保存 
    #但好像tf在load_weights时会保存优化器 然而keras的不会  (⊙o⊙)… 之后可能会合并
                  loss='sparse_categorical_crossentropy',
                  metrics=['accuracy'])
    return model

model = create_model()
model.summary()

times=1
checkpoint_path = "training_{}/cp.ckpt".format(times) #全路径
checkpoint_dir = os.path.dirname(checkpoint_path) #所在文件路径
# Create checkpoint callback
cp_callback = keras.callbacks.ModelCheckpoint(checkpoint_path,
                                              save_weights_only=True,
                                              verbose=1)

# model.fit(train_images,train_labels, epochs =10 ,
#             validation_data = (test_images, test_labels),
#             callbacks = [cp_callback])









#上述代码将创建一个 TensorFlow 检查点文件集合,这些文件在每个周期结束时更新:

#下面,重新构建一个未经训练的全新模型,并用测试集对其进行评估。
# 未训练模型的表现有很大的偶然性(准确率期望为 10%):
model = create_model()
loss, acc = model.evaluate(test_images, test_labels)
print("Untrained model, accuracy: {:5.2f}%".format(100*acc))

# 然后从检查点加载权重,并重新评估:
model.load_weights(checkpoint_path)
loss, acc = model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))







# 更多的选项 控制每多少epoch设置一次检查点 并为生成的检查点提供独一无二的名称
# 训练一个新模型,每隔 5 个周期保存一次检查点并设置唯一名称:

# include the epoch in the file name. (uses `str.format`)
checkpoint_path = "training_2/cp-{epoch:04d}.ckpt"  #全路径
checkpoint_dir = os.path.dirname(checkpoint_path) #所在文件路径
# Create checkpoint callback
cp_callback = keras.callbacks.ModelCheckpoint(checkpoint_path,
                                              save_weights_only=True,
                                              verbose=1,
                                              period=5)# Save weights, every 5-epochs.
model = create_model()
# model.fit(train_images,train_labels, epochs =50 ,
#             validation_data = (test_images, test_labels),
#             callbacks = [cp_callback],verbose=0)


# Sort the checkpoints by modification time.
checkpoints = pathlib.Path(checkpoint_dir).glob("*.index")
checkpoints = sorted(checkpoints, key=lambda cp:cp.stat().st_mtime)
checkpoints = [cp.with_suffix('') for cp in checkpoints]
latest = str(checkpoints[-1])
# print(checkpoints,'\n',latest)
# 默认的 TensorFlow 格式仅保存最近的 5 个检查点。
print(latest)
model = create_model()
model.load_weights(latest) # 最新的参数
loss, acc = model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))


# 直接用save_weights方法也可以
# Save the weights
model.save_weights('./checkpoints/my_checkpoint')
# Restore the weights
model = create_model()
model.load_weights('./checkpoints/my_checkpoint')

loss,acc = model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))





'''
保存整个模型
'''
# 整个模型可以保存到一个文件中,其中包含权重值、模型配置乃至优化器配置
# 这样,就可以为模型设置检查点,并稍后从完全相同的状态继续训练,而无需访问原始代码。
# 在 Keras 中保存完全可正常使用的模型非常有用,
# 可以在 TensorFlow.js 中加载它们,然后在网络浏览器中训练和运行它们。

# Keras 使用 HDF5 标准提供基本的保存格式。对于我们来说,可将保存的模型视为一个二进制 blob。
model = create_model()
model.fit(train_images, train_labels, epochs=5)
model.save('my_model.h5')

# Recreate the exact same model, including weights and optimizer.
new_model = keras.models.load_model('my_model.h5')
new_model.summary()
loss, acc = new_model.evaluate(test_images, test_labels)
print("Restored model, accuracy: {:5.2f}%".format(100*acc))
# 权重值  模型配置(架构) 优化器配置 均会保存
# Keras 通过检查架构来保存模型。目前,它无法保存 TensorFlow 优化器(来自 tf.train)。
# 更多内容参看https://www.tensorflow.org/guide/keras

猜你喜欢

转载自blog.csdn.net/Feynman1999/article/details/84583977
今日推荐