Python深度學(xué)習(xí)pytorch神經(jīng)網(wǎng)絡(luò)圖像卷積運算詳解
由于卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計是用于探索圖像數(shù)據(jù),本節(jié)我們將以圖像為例。
互相關(guān)運算
嚴(yán)格來說,卷積層是個錯誤的叫法,因為它所表達(dá)的運算其實是互相關(guān)運算(cross-correlation),而不是卷積運算。在卷積層中,輸入張量和核張量通過互相關(guān)運算產(chǎn)生輸出張量。
首先,我們暫時忽略通道(第三維)這一情況,看看如何處理二維圖像數(shù)據(jù)和隱藏表示。下圖中,輸入是高度為3、寬度為3的二維張量(即形狀為 3 × 3 3\times3 3×3)。卷積核的高度和寬度都是2。
注意,輸出大小略小于輸入大小。這是因為我們需要足夠的空間在圖像上“移動”卷積核。稍后,我們將看到如何通過在圖像邊界周圍填充零來保證有足夠的空間移動內(nèi)核,從而保持輸出大小不變。
def corr2d(X, K): """計算⼆維互相關(guān)運算。""" h, w = K.shape Y = torch.zeros((X.shape[0] - h + 1, X.shape[1] - w + 1)) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i, j] = (X[i:i + h, j:j + w] * K).sum() return Y
卷積層
卷積層對輸入和卷積核權(quán)重進(jìn)行互相關(guān)運算,并在添加標(biāo)量偏置之后產(chǎn)生輸出。所以,卷積層中的兩個被訓(xùn)練的參數(shù)是卷積核權(quán)重核標(biāo)量偏置。就像我們之前隨機初始化全連接層一樣,在訓(xùn)練基于卷積層的模型時,我們也隨機初始化卷積核權(quán)重。
基于上面定義的corr2d函數(shù)實現(xiàn)二維卷積層。在__init__構(gòu)造函數(shù)中,將weight和bias聲明為兩個模型參數(shù)。前向傳播函數(shù)調(diào)用corr2d函數(shù)并添加偏置。
class Conv2D(nn.Module): def __init__(self, kernel_size): super().__init__() self.weight = nn.Parameter(torch.rand(kernel_size)) self.bias = nn.Parameter(torch.zeros(1)) def forward(self, x): return corr2d(x, self.weight) + self.bias
高度和寬度分別為 h和 w的卷積核可以被稱為 h × w 卷積或 h × w 卷積核。我們也將帶有 h × w 卷積核的卷積層稱為 h × w 卷積層。
特征映射
下圖中輸出的卷積層有時被稱為特征映射(Feature Map),因為它可以被視為一個輸入映射到下一層的空間維度的轉(zhuǎn)換器。在CNN中,對于某一層的任意元素 x x x,其感受野(Receptive Field)是指在前向傳播期間可能影響 x x x計算的所有元素(來自所有先前層)。
注意,感受野的覆蓋率可能大于某層輸入的實際區(qū)域大小。
例如上圖:給定 2 × 2 卷積核,陰影輸出元素值19的接收域是陰影部分的四個元素。假設(shè)之前輸出為 Y ,其大小為 2 × 2 ,現(xiàn)在我們再其后附加一個卷積層,該卷積層以 Y 為輸入,輸出單個元素 z。再這種情況下, Y上的 z的接收字段包括 Y 的所有四個元素,而輸入的感受野包括最初所有九個輸入元素。
因此,當(dāng)一個特征圖中的任意元素需要檢測更廣區(qū)域的輸入特征時,我們可以構(gòu)建一個更深的網(wǎng)絡(luò)。
以上就是Python深度學(xué)習(xí)pytorch神經(jīng)網(wǎng)絡(luò)圖像卷積運算詳解的詳細(xì)內(nèi)容,更多關(guān)于pytorch神經(jīng)網(wǎng)絡(luò)圖像卷積運算的資料請關(guān)注本站其它相關(guān)文章!
版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。