pytorch預(yù)測之解決多次預(yù)測結(jié)果不一致問題
發(fā)布日期:2022-03-28 12:45 | 文章來源:腳本之家
為什么多次預(yù)測結(jié)果不一致
1、檢查是否在每次預(yù)測前使用
model.eval()
或者是
with torch.no_grad(): for ...
推薦下面的方法,上面的的方法計算梯度,但是并不反向傳播,下面的方法既不計算梯度,也不反向傳播,速度更快。
2、檢查是否取消了所有的dropout
3、設(shè)置隨機(jī)種子
def setup_seed(seed): np.random.seed(seed) random.seed(seed) torch.manual_seed(seed) #cpu torch.cuda.manual_seed_all(seed) #并行g(shù)pu torch.backends.cudnn.deterministic = True #cpu/gpu結(jié)果一致 torch.backends.cudnn.benchmark = True#訓(xùn)練集變化不大時使訓(xùn)練加速
4、保證實例化模型前要將is_training置為false;這兩行代碼順序不能顛倒
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持本站。
版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。
相關(guān)文章
上一篇: