Python人工智能學(xué)習(xí)PyTorch實(shí)現(xiàn)WGAN示例詳解
1.GAN簡(jiǎn)述
在GAN中,有兩個(gè)模型,一個(gè)是生成模型,用于生成樣本,一個(gè)是判別模型,用于判斷樣本是真還是假。但由于在GAN中,使用的JS散度去計(jì)算損失值,很容易導(dǎo)致梯度彌散的情況,從而無(wú)法進(jìn)行梯度下降更新參數(shù),于是在WGAN中,引入了Wasserstein Distance,使得訓(xùn)練變得穩(wěn)定。本文中我們以服從高斯分布的數(shù)據(jù)作為樣本。
2.生成器模塊
這里從2維數(shù)據(jù),最終生成2維,主要目的是為了可視化比較方便。也就是說(shuō),在生成模型中,我們輸入雜亂無(wú)章的2維的數(shù)據(jù),通過(guò)訓(xùn)練之后,可以生成一個(gè)贗品,這個(gè)贗品在模仿高斯分布。
3.判別器模塊
判別器同樣輸入的是2維的數(shù)據(jù)。比如我們上面的生成器,生成了一個(gè)2維的贗品,輸入判別器之后,它能夠最終輸出一個(gè)sigmoid轉(zhuǎn)換后的結(jié)果,相當(dāng)于是一個(gè)概率,從而判別,這個(gè)贗品到底能不能達(dá)到以假亂真的程度。
4.數(shù)據(jù)生成模塊
由于我們使用的是高斯模型,因此,直接生成我們需要的數(shù)據(jù)即可。我們?cè)谶@個(gè)模塊中,生成8個(gè)服從高斯分布的數(shù)據(jù)。
5.判別器訓(xùn)練
由于使用JS散度去計(jì)算損失的時(shí)候,會(huì)很容易出現(xiàn)梯度極小,接近于0的情況,會(huì)使得梯度下降無(wú)法進(jìn)行,因此計(jì)算損失的時(shí)候,使用了Wasserstein Distance,去度量?jī)蓚€(gè)分布之間的差異。因此我們假如了梯度懲罰的因子。
其中,梯度懲罰的模塊如下:
6.生成器訓(xùn)練
這里的訓(xùn)練是緊接著判別器訓(xùn)練的。也就是說(shuō),在一個(gè)周期里面,先訓(xùn)練判別器,再訓(xùn)練生成器。
7.結(jié)果可視化
通過(guò)visdom可視化損失值,通過(guò)matplotlib可視化分布的預(yù)測(cè)結(jié)果。
以上就是人工智能學(xué)習(xí)PyTorch實(shí)現(xiàn)WGAN示例詳解的詳細(xì)內(nèi)容,更多關(guān)于PyTorch實(shí)現(xiàn)WGAN的資料請(qǐng)關(guān)注本站其它相關(guān)文章!
版權(quán)聲明:本站文章來(lái)源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來(lái)源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來(lái)源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來(lái),僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。