人工智能學習pyTorch的ResNet殘差模塊示例詳解
1.定義ResNet殘差模塊
一個block中,有兩個卷積層,之后的輸出還要和輸入進行相加。因此一個block的前向流程如下:
輸入x→卷積層→數(shù)據(jù)標準化→ReLU→卷積層→數(shù)據(jù)標準化→數(shù)據(jù)和x相加→ReLU→輸出out
中間加上了數(shù)據(jù)的標準化(通過nn.BatchNorm2d實現(xiàn)),可以使得效果更好一些。
①各層的定義
②前向傳播
在前向傳播中輸入x,過程中根據(jù)前向流程,調(diào)用上面定義的層即可。
如此,便定義好了一個殘差的模塊。
2.ResNet18的實現(xiàn)
此處的ResNet18并沒有涉及到太多細節(jié),只是一個大致的內(nèi)容。
在初始化的時候,定義好所需要使用的模塊,根據(jù)上面定義好的殘差模塊,調(diào)用即可。在這里使用了4次殘差模塊,將通道數(shù)從輸入的3(也就是RGB),變成了512通道。也就是最終提取的高級特征。提取完特征,直接輸入給Linear方法,得到圖片在10種圖片類型上的結(jié)果,用于預測以及損失值的求解。
①各層的定義
②前向傳播
同樣的,調(diào)用上面定義好的層,根據(jù)流程傳播即可。
3.測試ResNet18
如下圖,輸入的是2張圖,RGB,長寬均是32的數(shù)據(jù)。
通過ResNet18之后,輸出的是2張圖,每張圖對應10種類型的不同取值logits。
過程中的通道數(shù)目的轉(zhuǎn)換如下面的結(jié)果所示:3→64→128→256→512→512
過程中的尺寸轉(zhuǎn)換,根據(jù)設置的卷積核,以及步長,會有不同的結(jié)果。但總體都是為了得到更高級的特征,最終輸入全連層,得到Logits。
以上就是人工智能學習pyTorch的ResNet殘差模塊示例詳解的詳細內(nèi)容,更多關于PyTorch人工智能學習ResNet殘差模塊的資料請關注本站其它相關文章!
版權(quán)聲明:本站文章來源標注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學習參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。