人工智能學(xué)習(xí)Pytorch數(shù)據(jù)集分割及動(dòng)量示例詳解
1.數(shù)據(jù)集分割
通過datasets可以直接分別獲取訓(xùn)練集和測(cè)試集。
通常我們會(huì)將訓(xùn)練集進(jìn)行分割,通過torch.utils.data.random_split方法。
所有的數(shù)據(jù)都需要通過torch.util.data.DataLoader進(jìn)行加載,才可以得到可以使用的數(shù)據(jù)集。
具體代碼如下:
2.
2.正則化
PyTorch中的正則化和機(jī)器學(xué)習(xí)中的一樣,不過設(shè)置方式不一樣。
直接在優(yōu)化器中,設(shè)置weight_decay即可。優(yōu)化器中,默認(rèn)的是L2范式,因此填入的參數(shù)就是lambda。想要使用L1范式的話,需要手動(dòng)寫出代碼。
3.動(dòng)量和學(xué)習(xí)率衰減
動(dòng)量的設(shè)置可以直接在優(yōu)化器中完成。通過momentum參數(shù)設(shè)置。
學(xué)習(xí)率的調(diào)整通過torch.optim.lr_scheduler中的ReduceLROnPlateau,StepLR實(shí)現(xiàn)。
ReduceLROnPlateau是自動(dòng)檢測(cè)損失值,并衰減學(xué)習(xí)率。
StepLR需要手動(dòng)設(shè)置衰減的參數(shù)。
以上就是人工智能學(xué)習(xí)Pytorch數(shù)據(jù)集分割及動(dòng)量示例詳解的詳細(xì)內(nèi)容,更多關(guān)于pytorch數(shù)據(jù)集分割及動(dòng)量的資料請(qǐng)關(guān)注本站其它相關(guān)文章!
版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。