Pytorch獲取無(wú)梯度TorchTensor中的值
獲取無(wú)梯度Tensor
遇到的問(wèn)題:
使用兩個(gè)網(wǎng)絡(luò)并行運(yùn)算,一個(gè)網(wǎng)絡(luò)的輸出值要給另一個(gè)網(wǎng)絡(luò)反饋。而反饋的輸出值帶有網(wǎng)絡(luò)權(quán)重的梯度,即grad_fn=<XXXBackward0>.
這時(shí)候如果把反饋值扔到第二網(wǎng)絡(luò)中更新,會(huì)出現(xiàn)第一個(gè)計(jì)算圖丟失無(wú)法更新的錯(cuò)誤。哎喲喂,我根本不需要第一個(gè)網(wǎng)絡(luò)的梯度好嗎?
一開(kāi)始用了一個(gè)笨辦法,先轉(zhuǎn)numpy,然后再轉(zhuǎn)回torch.Tensor。因?yàn)閚umpy數(shù)據(jù)是不帶梯度的。
但是我的原始tensor的放在cuda上的,
cuda的張量是不能直接轉(zhuǎn)Tensor,所以
t_error = td_error.cuda().data.cpu().numpy() t_error = torch.FloatTensor(t_error).to(device)
從cuda轉(zhuǎn)回了cpu,變成numpy,又轉(zhuǎn)成了tensor,又回到了cuda上,坑爹呢這是,可能只有我才能寫(xiě)出如此低效的辣雞代碼了。
后來(lái)發(fā)現(xiàn),其實(shí)直接在返回的時(shí)候添加
with torch.no_grad(): td_error = reward + GAMMA * v_ - v
即可.
補(bǔ)充:在pytorch中取一個(gè)tensor的均值,然后該張量中的所有值與其對(duì)比!
Pytorch中的Tensor的shape是(B, C, W, H),
對(duì)該tensor取均值并與所有值做對(duì)比代碼如下:
C, H, W = tensor.shape[1], tensor.shape[2], tensor.shape[3] for c in range(C): mean = torch.mean(x[0][c]) for h in range(H): for w in range(W): if x[0][c][h][w] >= mean: x[0][c][h][w] = mean
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持本站。
版權(quán)聲明:本站文章來(lái)源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來(lái)源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來(lái)源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來(lái),僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。