300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > Pytorch 保存和加载模型

Pytorch 保存和加载模型

时间:2023-12-23 07:50:25

相关推荐

Pytorch 保存和加载模型

当保存和加载模型时,需要熟悉三个核心功能:

1. torch.save :将序列化对象保存到磁盘。此函数使用Python的 pickle 模块进行序列化。使 用此函数可以保存如模型、tensor、字典等各种对象。 2. torch.load :使用pickle的 unpickling 功能将pickle对象文件反序列化到内存。此功能还可 以有助于设备加载数据。 3. torch.nn.Module.load_state_dict :使用反序列化函数 state_dict 来加载模型的参数字典。

1 保存和加载推理模型

保存

torch.save(model.state_dict(), PATH)

加载

model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH))model.eval()

当保存好模型用来推断的时候,只需要保存模型学习到的参数,使用 torch.save() 函数来保 存模型 state_dict ,它会给模型恢复提供 最大的灵活性,这就是为什么要推荐它来保存的原 因。 在 PyTorch 中最常见的模型保存使‘.pt’或者是‘.pth’作为模型文件扩展名。 请记住,在运行推理之前,务必调用 model.eval() 去设置 dropout 和 batch normalization 层为评 估模式。如果不这么做,可能导致 模型推断结果不一致。注意:load_state_dict() 函数只接受字典对象,而不是保存对象的路径。这就意味着在你传给 load_state_dict() 函数之前,你必须反序列化 你保存的 state_dict 。例如,你无法通过 model.load_state_dict(PATH) 来加载模型。

2 保存/加载完整模型

保存

torch.save(model, PATH)

加载

new_model = torch.load(PATH)new_model.eval()#new_model 不再需要第一种方法中的建立新模型的步骤

此部分保存/加载过程使用最直观的语法并涉及最少量的代码。以 Python ‘pickle’模块的方式 来保存模型。这种方法的缺点是序列化数据受 限于某种特殊的类而且需要确切的字典结构。 这是因为pickle无法保存模型类本身。相反,它保存包含类的文件的路径,该文件在加载时使 用。 因此,当在其他项目使用或者重构之后,您的代码可能会以各种方式中断。 在 PyTorch 中最常见的模型保存使用‘.pt’或者是‘.pth’作为模型文件扩展名。 请记住,在运行推理之前,务必调用 model.eval() 设置 dropout 和 batch normalization 层为评估模式。如果不这么做,可能导致模型推断结果不一致。

3 保存和加载 Checkpoint 用于推理/继续训练

保存

torch.save({'epoch': epoch,'model_state_dict': model.state_dict(),'optimizer_state_dict': optimizer.state_dict(),'loss': loss,...}, PATH)

加载

model = TheModelClass(*args, **kwargs)optimizer = TheOptimizerClass(*args, **kwargs)checkpoint = torch.load(PATH)model.load_state_dict(checkpoint['model_state_dict'])optimizer.load_state_dict(checkpoint['optimizer_state_dict'])epoch = checkpoint['epoch']loss = checkpoint['loss']model.eval()# - or -model.train()

4在一个文件中保存多个模型

保存

torch.save({'modelA_state_dict': modelA.state_dict(),'modelB_state_dict': modelB.state_dict(),'optimizerA_state_dict': optimizerA.state_dict(),'optimizerB_state_dict': optimizerB.state_dict(),...}, PATH)

加载

modelA = TheModelAClass(*args, **kwargs)modelB = TheModelBClass(*args, **kwargs)optimizerA = TheOptimizerAClass(*args, **kwargs)optimizerB = TheOptimizerBClass(*args, **kwargs)checkpoint = torch.load(PATH)modelA.load_state_dict(checkpoint['modelA_state_dict'])modelB.load_state_dict(checkpoint['modelB_state_dict'])optimizerA.load_state_dict(checkpoint['optimizerA_state_dict'])optimizerB.load_state_dict(checkpoint['optimizerB_state_dict'])modelA.eval()modelB.eval()# - or -modelA.train()modelB.train()

当保存一个模型由多个 torch.nn.Modules 组成时,例如GAN(对抗生成网络)、sequence-to- sequence (序列到序列模型), 或者是多个模型融合, 可以采用与保存常规检查点相同的方法。 换句话说,保存每个模型的 state_dict 的字典和相对应的优化器。如前所述,可以通过简单地 将它们附加到字典的方式来保存任何其他项目,这样有助于恢复训练。PyTorch 中常见的保存 checkpoint 是使用 .tar 文件扩展名。 要加载项目,首先需要初始化模型和优化器,然后使用 torch.load() 来加载本地字典。这里,你可以非常容易的通过简单查询字典来访问你所保存的项目。 请记住在运行推理之前,务必调用 model.eval() 去设置 dropout 和 batch normalization 为评估。如果不这样做,有可能得到不一致的推断结果。 如果你想要恢复训练,请调用 model.train() 以 确保这些层处于训练模式。

5使用在不同模型参数下的热启动模式

保存

torch.save(modelA.state_dict(), PATH)

加载

modelB = TheModelBClass(*args, **kwargs)modelB.load_state_dict(torch.load(PATH), strict=False)

在迁移学习或训练新的复杂模型时,部分加载模型或加载部分模型是常见的情况。利用训练好 的参数,有助于热启动训练过程,并希望帮助你的模型比从头开始训练能够更快地收敛。无论是从缺少某些键的 state_dict 加载还是从键的数目多于加载模型的 state_dict , 都可以通过在 load_state_dict() 函数中将 strict 参数设置为 False 来忽略非匹配键的函数。 如果要将参数从一个层加载到另一个层,但是某些键不匹配,主要修改正在加载的 state_dict 中的 参数键的名称以匹配要在加载到模型中的键即可。

6通过设备保存/加载模型

6.1 保存到 CPU、加载到 CPU

保存

torch.save(model.state_dict(), PATH)

加载

device = torch.device('cpu')model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH, map_location=device))

6.2 保存到 GPU、加载到 GPU

保存

torch.save(model.state_dict(), PATH)

加载

device = torch.device("cuda")model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH))model.to(device) # 确保在你提供给模型的任何输入张量上调用input = input.to(device)

当在GPU上训练并把模型保存在GPU,只需要使用 model.to(torch.device('cuda')) ,将初 始化的 model 转换为 CUDA 优化模型。另外,请 务必在所有模型输入上使用 .to(torch.device('cuda')) 函数来为模型准备数据。请注意,调用 my_tensor.to(device) 会在GPU上返回 my_tensor 的副本。 因此,请记住手动覆盖张量: my_tensor= my_tensor.to(torch.device('cuda')) 。

6.3 保存到 CPU,加载到 GPU

保存

torch.save(model.state_dict(), PATH)

加载

device = torch.device("cuda")model = TheModelClass(*args, **kwargs)model.load_state_dict(torch.load(PATH, map_location="cuda:0")) # Choose whatever GPU device number you wantmodel.to(device) # 确保在你提供给模型的任何输入张量上调用input = input.to(device)

在CPU上训练好并保存的模型加载到GPU时,将 torch.load() 函数中的 map_location 参数设 置为 cuda:device_id 。这会将模型加载到指定的GPU设备。接下来,请务必调用 model.to(torch.device('cuda')) 将模型的参数张量转换为 CUDA 张量。最后,确保在所有 模型输入上使用 .to(torch.device('cuda')) 函数来为CUDA优化模型。请注意,调用 my_tensor.to(device) 会在GPU上返回 my_tensor 的新副本。它不会覆盖 my_tensor 。因 此, 请手动覆盖张量 my_tensor = my_tensor.to(torch.device('cuda')) 。

6.4 保存 torch.nn.DataParallel 模型

保存

torch.save(model.module.state_dict(), PATH)

加载

# 加载任何你想要的设备

torch.nn.DataParallel 是一个模型封装,支持并行GPU使用。要普通保存 DataParallel 模型, 请保存 model.module.state_dict() 。 这样,你就可以非常灵活地以任何方式加载模型到你 想要的设备中。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。