脚本专栏 
首页 > 脚本专栏 > 浏览文章

pytorch 使用加载训练好的模型做inference

(编辑:jimmy 日期: 2025/9/21 浏览:3 次 )

前提: 模型参数和结构是分别保存的

1、 构建模型(# load model graph)

model = MODEL()

2、加载模型参数(# load model state_dict)

 model.load_state_dict
 (
 {

 k.replace('module.',''):v for k,v in

 torch.load(config.model_path, map_location=config.device).items()

 }
 )
 
model = self.model.to(config.device)

* config.device 指定使用哪块GPU或者CPU  

*k.replace('module.',''):v 防止torch.DataParallel训练的模型出现加载错误

(解决RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1问题)

3、设置当前阶段为inference(# predict)

model.eval()

以上这篇pytorch 使用加载训练好的模型做inference就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

上一篇:python logging 日志的级别调整方式
下一篇:logging level级别介绍
一句话新闻
Windows上运行安卓你用过了吗
在去年的5月23日,借助Intel Bridge Technology以及Intel Celadon两项技术的驱动,Intel为PC用户带来了Android On Windows(AOW)平台,并携手国内软件公司腾讯共同推出了腾讯应用宝电脑版,将Windows与安卓两大生态进行了融合,PC的使用体验随即被带入到了一个全新的阶段。
友情链接:杰晶网络 DDR爱好者之家 南强小屋 黑松山资源网 白云城资源网 网站地图 SiteMap