人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動態(tài)

人工智能學(xué)習(xí)Pytorch梯度下降優(yōu)化示例詳解

發(fā)布日期:2021-12-12 04:19 | 文章來源:站長之家

一、激活函數(shù)

1.Sigmoid函數(shù)

函數(shù)圖像以及表達(dá)式如下:

通過該函數(shù),可以將輸入的負(fù)無窮到正無窮的輸入壓縮到0-1之間。在x=0的時候,輸出0.5

通過PyTorch實現(xiàn)方式如下:

2.Tanh函數(shù)

在RNN中比較常用,由sigmoid函數(shù)變化而來。表達(dá)式以及圖像如下圖所示:

該函數(shù)的取值是-1到1,導(dǎo)數(shù)是:1-Tanh**2。

通過PyTorch的實現(xiàn)方式如下:

3.ReLU函數(shù)

該函數(shù)可以將輸入小于0的值截斷為0,大于0的值保持不變。因此在小于0的地方導(dǎo)數(shù)為0,大于0的地方導(dǎo)數(shù)為1,因此求導(dǎo)計算非常方便。

通過PyTorch的實現(xiàn)方式如下:

二、損失函數(shù)及求導(dǎo)

通常,我們使用mean squared error也就是均方誤差來作為損失函數(shù)。

1.autograd.grad

torch.autograd.grad(loss, [w1,w2,...])

輸入的第一個是損失函數(shù),第二個是參數(shù)的列表,即使只有一個,也需要加上中括號。

我們可以直接通過mse_loss的方法,來直接創(chuàng)建損失函數(shù)。

在torch.autograd.grad中輸入損失函數(shù)mse,以及希望求導(dǎo)的對象[w],可以直接求導(dǎo)。

注意:我們需要在創(chuàng)建w的時候,需要添加requires_grad=True,我們才能對它求導(dǎo)。

也可以通過w.requires_grad_()的方法,為其添加可以求導(dǎo)的屬性。

2.loss.backward()

該方法是直接在損失函數(shù)上面調(diào)用的

這個方法不會返回梯度信息,而是將梯度信息保存到了參數(shù)中,直接用w.grad就可以查看。

3.softmax及其求導(dǎo)

該函數(shù)將差距較大的輸入,轉(zhuǎn)換成處于0-1之間的概率,并且所有概率和為1。

對softmax函數(shù)的求導(dǎo):

設(shè)輸入是a,通過了softmax輸出的是p

注意:當(dāng)i=j時,偏導(dǎo)是正的,i != j時,偏導(dǎo)是負(fù)的。

通過PyTorch實現(xiàn)方式如下:

三、鏈?zhǔn)椒▌t

1.單層感知機(jī)梯度

單層感知機(jī)其實就是只有一個節(jié)點,數(shù)據(jù)*權(quán)重,輸入這個節(jié)點,經(jīng)過sigmoid函數(shù)轉(zhuǎn)換,得到輸出值。根據(jù)鏈?zhǔn)椒▌t可以求得梯度。

通過PyTorch可以輕松實現(xiàn)函數(shù)轉(zhuǎn)換以及求導(dǎo)。

2. 多輸出感知機(jī)梯度

輸出值變多了,因此節(jié)點變多了。但求導(dǎo)方式其實是一樣的。

通過PyTorch實現(xiàn)求導(dǎo)的方式如下:

3. 中間有隱藏層的求導(dǎo)

中間加了隱藏層,只是調(diào)節(jié)了輸出節(jié)點的輸入內(nèi)容。原本是數(shù)據(jù)直接輸給輸出節(jié)點,現(xiàn)在是中間層的輸出作為輸入,給了輸出節(jié)點。使用PyTorch實現(xiàn)方式如下:

4.多層感知機(jī)的反向傳播

依舊是通過鏈?zhǔn)椒▌t,每一個結(jié)點的輸出sigmoid(x)都是下一個結(jié)點的輸入,因此我們通過前向傳播得到每一個結(jié)點的sigmoid函數(shù),以及最終的輸出結(jié)果,算出損失函數(shù)后,即可通過后向傳播依次推算出每一個結(jié)點每一個參數(shù)的梯度。

下面的DELTA(k)只是將一部分內(nèi)容統(tǒng)一寫作一個字母來表示,具體推導(dǎo)不再詳述。

四、優(yōu)化舉例

通過以下函數(shù)進(jìn)行優(yōu)化。

優(yōu)化流程:初始化參數(shù)→前向傳播算出預(yù)測值→得到損失函數(shù)→​​​​​​​反向傳播得到梯度→​​​​​​​對參數(shù)更新→​​​​​​​再次前向傳播→......

在此案例中,優(yōu)化流程有一些不同:

優(yōu)化之前先選擇優(yōu)化器,并直接把參數(shù),以及梯度輸入進(jìn)去。

①pred = f(x)根據(jù)函數(shù)給出預(yù)測值,用以后面計算梯度。

②optimizer.zero_grad()梯度歸零。因為反向傳播之后,梯度會自動帶到參數(shù)上去(上面有展示,可以調(diào)用查看)。

③pred.backward()用預(yù)測值計算梯度。

④pred.step()更新參數(shù)。

以上步驟循環(huán)即可。

以上就是人工智能學(xué)習(xí)Pytorch梯度下降優(yōu)化示例詳解的詳細(xì)內(nèi)容,更多關(guān)于Pytorch梯度下降優(yōu)化的資料請關(guān)注本站其它相關(guān)文章!

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實時開通

自選配置、實時開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部