脚本专栏 
首页 > 脚本专栏 > 浏览文章

pytorch 使用加载训练好的模型做inference

(编辑:jimmy 日期: 2025/12/27 浏览:3 次 )

前提: 模型参数和结构是分别保存的

1、 构建模型(# load model graph)

model = MODEL()

2、加载模型参数(# load model state_dict)

 model.load_state_dict
 (
 {

 k.replace('module.',''):v for k,v in

 torch.load(config.model_path, map_location=config.device).items()

 }
 )
 
model = self.model.to(config.device)

* config.device 指定使用哪块GPU或者CPU  

*k.replace('module.',''):v 防止torch.DataParallel训练的模型出现加载错误

(解决RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1问题)

3、设置当前阶段为inference(# predict)

model.eval()

以上这篇pytorch 使用加载训练好的模型做inference就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

上一篇:python logging 日志的级别调整方式
下一篇:logging level级别介绍
一句话新闻
微软与英特尔等合作伙伴联合定义“AI PC”:键盘需配有Copilot物理按键
几个月来,英特尔、微软、AMD和其它厂商都在共同推动“AI PC”的想法,朝着更多的AI功能迈进。在近日,英特尔在台北举行的开发者活动中,也宣布了关于AI PC加速计划、新的PC开发者计划和独立硬件供应商计划。
在此次发布会上,英特尔还发布了全新的全新的酷睿Ultra Meteor Lake NUC开发套件,以及联合微软等合作伙伴联合定义“AI PC”的定义标准。
友情链接:杰晶网络 DDR爱好者之家 南强小屋 黑松山资源网 白云城资源网 网站地图 SiteMap