人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動態(tài)

Python Pytorch深度學(xué)習(xí)之自動微分

發(fā)布日期:2021-12-18 07:22 | 文章來源:站長之家

一、簡介

antograd包是Pytorch中所有神經(jīng)網(wǎng)絡(luò)的核心。autograd為Tensor上的所有操作提供自動微分,它是一個由運行定義的框架,這意味著以代碼運行方式定義后向傳播,并且每一次迭代都可能不同

二、TENSOR

torch.Tensor是包的核心。

1.如果將屬性.requires_grad設(shè)置為True,則會開始跟蹤針對tensor的所有操作。

2.完成計算之后,可以調(diào)用backward()來自帶計算多有梯度。該張量的梯度將積累到.grad屬性中。

3.要停止tensor歷史記錄的跟蹤,可以調(diào)用.detach(),他將與計算歷史記錄分離,并防止將來的計算被跟蹤

4.要停止跟蹤歷史記錄(和使用內(nèi)存),可以將代碼塊使用with torch.no_grad():包裝起來。在評估模型時候,很有用,因為模型在訓(xùn)練階段具有requires_grad=True的可訓(xùn)練參數(shù)有利于調(diào)參,但是在評估階段不需要梯度

5.還有一個對于autograd實現(xiàn)非常重要的就是Function。tensor和Function互相連接并構(gòu)建一個肺循環(huán)圖,他保存整個完整的計算過程的歷史信息。每個張量都有一個.grad_fn屬性保存著創(chuàng)建了張量的Function的引用(如果用戶自己創(chuàng)建的張量,那么grad_fn是None)

6.如果想計算導(dǎo)數(shù),可以調(diào)用Tensor.backward().如果Tensor是標(biāo)量(包含一個元素數(shù)據(jù))則不需要指定任何參數(shù)backward(),但是如果他有更多元素,則需要指定gradient參數(shù)來指定張量的形狀

import torch
# 創(chuàng)建一個張量,設(shè)置requires_grad=True
x=torch.ones(2,2,requires_grad=True)
print(x)
# 針對張量操作
y=x+2
print(y)
print(y.grad_fn)#y作為操作的結(jié)果被創(chuàng)建,所以他有g(shù)rad_fn
# 對y操作
z=y*y*3
out=z.mean()
print(z,out)

運行結(jié)果

# 如果在變量輸入過程中沒有提供相應(yīng)參數(shù),輸入的標(biāo)記默認(rèn)為False,requires_grad_()會改變張量的requires_grad標(biāo)記
a=torch.randn(2, 2)
a=((a*3)/(a-1))
# 前面沒有設(shè)置requires_grad,固會輸出False
print(a.requires_grad)
a.requires_grad_(True)
# 經(jīng)過上面語句的更改之后,此處應(yīng)該輸出True
print(a.requires_grad)
b=(a*a).sum()
# 輸出梯度信息
print(b.grad_fn)

運行結(jié)果

三、梯度

現(xiàn)在向后傳播,因為輸出包含了一個標(biāo)量,out,backward()等同于out.backward(torch.tensor(1,))

out.backward()#向后傳播
print(x.grad)#打印梯度

運行結(jié)果


原理


四、Example——雅克比向量積

# 雅克比向量積
x=torch.randn(3,requires_grad=True)
y=x*2
print(y)
while y.data.norm()<1000:
 y=y*2
print(y)#此時y不是標(biāo)量,torch.autograd 不能夠直接計算整個雅可比,但是如果我們只想要雅可比向量積,只需要簡單的傳遞向量給 backward 作為參數(shù)
v=torch.tensor([0.1,1.0,0.0001],dtype=torch.float)
y.backward(v)
print(x.grad)
print(x.requires_grad)
print((x**2).requires_grad)
# 使用一下語句停止從跟蹤歷史中.require_gra=True的張量自動求導(dǎo)
with torch.no_grad():
 print((x**2).requires_grad)

運行結(jié)果


總結(jié)

本篇文章就到這里了,希望能夠給你帶來幫助,也希望您能夠多多關(guān)注本站的更多內(nèi)容!

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實時開通

自選配置、實時開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部