人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動態(tài)

Python Pytorch深度學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)

發(fā)布日期:2021-12-18 07:56 | 文章來源:腳本之家

一、簡介

神經(jīng)網(wǎng)絡(luò)可以通過torch.nn包構(gòu)建,上一節(jié)已經(jīng)對自動梯度有些了解,神經(jīng)網(wǎng)絡(luò)是基于自動梯度來定義一些模型。一個nn.Module包括層和一個方法,它會返回輸出。例如:數(shù)字圖片識別的網(wǎng)絡(luò):


上圖是一個簡單的前回饋神經(jīng)網(wǎng)絡(luò),它接收輸入,讓輸入一個接著一個通過一些層,最后給出輸出。

二、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程

一個典型的神經(jīng)

# -*- coding: utf-8 -*-
"""
Created on Sun Oct 24 15:56:23 2021
@author: Lenovo
"""
# 神經(jīng)網(wǎng)絡(luò)
# import torch
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
 def __init__(self):
  super(Net,self).__init__()
  # 1個輸入,6個輸出,5*5的卷積
  # 內(nèi)核
  self.conv1=nn.Conv2d(1,6,5)
  self.conv2=nn.Conv2d(6,16,5)
  # 映射函數(shù):線性——y=Wx+b
  self.fc1=nn.Linear(16*5*5,120)#輸入特征值:16*5*5,輸出特征值:120
  self.fc2=nn.Linear(120,84)
  self.fc3=nn.Linear(84,10)
 def forward(self,x):
  x=F.max_pool2d(F.relu(self.conv1(x)),(2,2))
  # 如果其尺寸是一個square只能指定一個數(shù)字
  x=F.max_pool2d(F.relu(self.conv2(x)),2)
  x=x.view(-1,self.num_flat_features(x))
  x=F.relu(self.fc1(x))
  x=F.relu(self.fc2(x))
  x=self.fc3(x)
  return x
 def num_flat_features(self,x):
  size=x.size()[1:]
  num_features=1
  for s in size:
num_features *= s
  return num_features
net=Net()
print(net)

運行結(jié)果


以上定義了一個前饋函數(shù),然后反向傳播函數(shù)被自動通過autograd定義,可以使用任何張量操作在前饋函數(shù)上。

2、通過調(diào)用net.parameters()返回模型可訓(xùn)練的參數(shù)

# 查看模型可訓(xùn)練的參數(shù)
params=list(net.parameters())
print(len(params))
print(params[0].size())# conv1 的權(quán)重weight

運行結(jié)果

3、迭代整個輸入

嘗試隨機生成一個3232的輸入。注:期望的輸入維度是3232,為了在MNIST數(shù)據(jù)集上使用這個網(wǎng)絡(luò),我們需要把數(shù)據(jù)集中的圖片維度修改為32*32

input=torch.randn(1, 1, 32,32)
print(input)
out=net(input)
print(out)

運行結(jié)果

4、調(diào)用反向傳播

將所有參數(shù)梯度緩存器置零,用隨機的梯度來反向傳播

# 調(diào)用反向傳播
net.zero_grad()
out.backward(torch.randn(1, 10))

運行結(jié)果

5、計算損失值

#計算損失值——損失函數(shù):一個損失函數(shù)需要一對輸入:模型輸出和目標,然后計算一個值來評估輸出距離目標多遠。有一些不同的損失函數(shù)在nn包中,一個簡單的損失函數(shù)就是nn.MSELoss,他計算了均方誤差

如果跟隨損失到反向傳播路徑,可以使用他的.grad_fn屬性,將會看到一個計算圖

# 在調(diào)用loss.backward()時候,整個圖都會微分,而且所有的圖中的requires_grad=True的張量將會讓他們的grad張量累計梯度
#跟隨以下步驟反向傳播
print(loss.grad_fn)#MSELoss
print(loss.grad_fn.next_functions[0][0])#Linear
print(loss.grad_fn.next_functions[0][0].next_functions[0][0])#relu

運行結(jié)果

6、反向傳播梯度

為了實現(xiàn)反向傳播loss,我們所有需要做的事情僅僅是使用loss.backward()。需要先清空現(xiàn)存的梯度,不然梯度將會和現(xiàn)存的梯度累計在一起。

# 調(diào)用loss.backward()然后看一下con1的偏置項在反向傳播之前和之后的變化
net.zero_grad()
print('conv1.bias.grad before backward')
print(net.conv1.bias.grad)
loss.backward()#反向傳播
print('conv1.bias.grad after backward')
print(net.conv1.bias.grad)

運行結(jié)果

7、更新神經(jīng)網(wǎng)絡(luò)參數(shù)

# =============================================================================
# # 最簡單的更新規(guī)則就是隨機梯度下降:weight=weight-learning_rate*gradient
# learning_rate=0.01
# for f in net.parameters():
#  f.data.sub_(f.grad.data*learning_rate)#f.data=f.data-learning_rate*gradient
#  =============================================================================

如果使用的是神經(jīng)網(wǎng)絡(luò),想要使用不同的更新規(guī)則,類似于SGD,Nesterov-SGD,Adam,RMSProp等。為了讓這可行,Pytorch建立一個稱為torch.optim的package實現(xiàn)所有的方法,使用起來更加方便

# =============================================================================
# import torch.optim as optim
# optimizer=optim.SGD(net.parameters(), lr=0.01)
# # 在迭代訓(xùn)練過程中
# optimizer.zero_grad()#將現(xiàn)存梯度置零
# output=net(input)
# loss=criterion(output,target)
# loss.backward()#反向傳遞
# optimizer.step()#更新網(wǎng)絡(luò)參數(shù)
# =============================================================================

總結(jié)

本篇文章就到這里了,希望能夠給你帶來幫助,也希望您能夠多多關(guān)注本站的更多內(nèi)容!

版權(quán)聲明:本站文章來源標注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實時開通

自選配置、實時開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部