人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動態(tài)

Python深度學(xué)習(xí)理解pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化

發(fā)布日期:2021-12-26 21:48 | 文章來源:站長之家

訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)是十分困難的,特別是在較短的實(shí)踐內(nèi)使他們收斂更加棘手。在本節(jié)中,我們將介紹批量歸一化(batch normalization),這是一種流行且有效的技術(shù),可持續(xù)加速深層網(wǎng)絡(luò)的收斂速度。在結(jié)合之后將介紹的殘差快,批量歸一化使得研究人員能夠訓(xùn)練100層以上的網(wǎng)絡(luò)。

訓(xùn)練深層網(wǎng)絡(luò)

為什么要批量歸一化層呢?

讓我們回顧一下訓(xùn)練神經(jīng)網(wǎng)絡(luò)時出現(xiàn)的一些實(shí)際挑戰(zhàn):

1.數(shù)據(jù)預(yù)處理的方式通常會對最終結(jié)果產(chǎn)生巨大影響?;叵胍幌挛覀儜?yīng)用多層感知機(jī)來預(yù)測房價的例子。使用真實(shí)數(shù)據(jù)時,我們的第一步是標(biāo)準(zhǔn)化輸入特征,使其平均值為0,方差為1。直觀地說,這種標(biāo)準(zhǔn)化可以很好地與我們地優(yōu)化器配合使用,因?yàn)樗梢詫?shù)的量級進(jìn)行統(tǒng)一。

2.對于典型的多層感知機(jī)或卷積伸進(jìn)網(wǎng)絡(luò)。當(dāng)我們訓(xùn)練時,中間層中的變量(例如,多層感知機(jī)中的仿射變換輸出)可能具有更廣的變化范圍:不論是沿著從輸入到輸出的層,跨同一層中的單元,或是隨著時間的推移,模型的參數(shù)隨著訓(xùn)練更新變幻莫測。批量歸一化的發(fā)明者非正式地假設(shè),這些變量分布中的這種偏移可能會阻礙網(wǎng)絡(luò)的收斂。直觀地說,我們可能會猜想,如果一個層的可變值是另一層的100倍,這可能需要對學(xué)習(xí)率進(jìn)行補(bǔ)償調(diào)整。

3.更深層的網(wǎng)絡(luò)很復(fù)雜,容易過擬合。這意味著正則化變得更加需要。

批量歸一化應(yīng)用于單個可選層(也可以應(yīng)用到所有層),其原理如下:
在每次訓(xùn)練迭代中,我們首先歸一化輸入,即通過減去其平均值并除以其標(biāo)準(zhǔn)差,其中兩者均基于當(dāng)前小批量處理。
接下來,我們應(yīng)用比例系數(shù)和比例偏移。
正是由于這個基于批量統(tǒng)計的標(biāo)準(zhǔn)化,才有了批量標(biāo)準(zhǔn)化的名稱。

這里,如果我們嘗試使用大小為1的小批量應(yīng)用小批量歸一化,我們將無法學(xué)到任何東西。這是因?yàn)樵跍p去均值之后,每個隱藏單元將為0。所以,只有使用足夠大的小批量,批量歸一化這種方法才是有效且穩(wěn)定的。請注意,在應(yīng)用批量歸一化時,批量大小的選擇可能比沒有批量歸一化時更重要。

現(xiàn)在,我們了解一下批量歸一化在實(shí)踐中是如何工作的。

批量歸一化層

回想一下,批量歸一化和其他圖層之間的一個關(guān)鍵區(qū)別是,由于批量歸一化在完整的小批次上運(yùn)行,因此我們不能像以前在引入其他圖層時忽略批處理的尺寸大小。我們在下面討論這兩種情況:全連接層和卷積層,它們的批量歸一化實(shí)現(xiàn)略有不同。

全連接層

通常,我們將批量歸一化層置于全連接層中的仿射變換和激活函數(shù)之間。

卷積層

同樣,對于卷積層,我們可以在卷積層之后和非線性激活函數(shù)之前應(yīng)用批量歸一化。當(dāng)卷積有多個輸出通道時,我們需要對這些通道的“每個”輸出執(zhí)行批量歸一化,每個用到都有自己的拉伸和偏移參數(shù),這兩個參數(shù)都是標(biāo)量。假設(shè)我們的微批次包含 m m m個示例,并且對于每個通道,卷積的輸出具有高度 p p p和寬度 q q q。那么對于卷積層,我們在每個輸出通道的 m ∗ p ∗ q m*p*q m∗p∗q個元素上同時執(zhí)行每個批量歸一化。因此,在計算平均值和方差時,我們會收集所有空間位置的值,然后在給定通道內(nèi)應(yīng)用相同的均值和方差,以便在每個空間位置對值進(jìn)行歸一化。

預(yù)測過程中的批量歸一化

正如我們前面提到的,批量歸一化在訓(xùn)練模式和預(yù)測模式下的行為通常是不同的。
首先,將訓(xùn)練好的模型用于預(yù)測時,我們不再需要樣本均值中的噪聲以及在微批次上估計每個小批次產(chǎn)生的樣本方差了。
其次,例如,我們可能需要使用我們的模型對逐個樣本進(jìn)行預(yù)測。一種常用的方法是通過移動平均估算整個訓(xùn)練數(shù)據(jù)集的樣本均值和方差,并在預(yù)測時使用它們得到確定的輸出??梢?,和dropout一樣,批量歸一化層在訓(xùn)練模式和預(yù)測模式下的計算結(jié)果也是不一樣的。

使用批量歸一化層的LeNet

為了更好理解如何應(yīng)用BatchNorm,下面我們將其應(yīng)用于LeNet模型。回想一下,批量歸一化是在卷積層或全連接層之后、相應(yīng)的激活函數(shù)之前應(yīng)用的。

net = nn.Sequential(
	nn.Conv2d(1, 6, kernel_size = 5), BatchNorm(6, num_dims=4), nn.Sigmoid(),
	nn.MaxPool2d(kernel_size=2, stride=2)
	nn.Conv2d(6, 16, kernel_size=5), BatchNorm(16, num_dims=4), nn.Sigmoid(),
	nn.MaxPool2d(kernel_size=2, stride=2), nn.Flatten(),
	nn.Linear(16*4*4, 120), BatchNorm(120, num_dims=2), nn.Sigmoid(),
	nn.Linear(120, 84), BatchNorm(84, num_dims=2), nn.Sigmoid(),
	nn.Linear(84, 10)
)

和以前一樣,我們將在Fashion-MNIST數(shù)據(jù)集上訓(xùn)練網(wǎng)絡(luò)。這個代碼與我們第一次訓(xùn)練LeNet時幾乎完全相同,主要區(qū)別在于學(xué)習(xí)率大得多。

lr, num_epochs, batch_size = 1.0, 10, 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
loss 0.250, train acc 0.907, test acc 0.801
35560.7 examples/sec on cuda:0

讓我們來看看從第一個批量歸一化層中學(xué)到的拉伸參數(shù)gamma和便宜參數(shù)beta。

net[1].gamma.reshape((-1,)), net[1].beta.reshape((-1,))
(tensor([0.7562, 1.2784, 2.3527, 1.3189, 2.0457, 2.8424], device='cuda:0',
grad_fn=<ViewBackward>),
tensor([ 0.7436, -0.8156, -0.2711, -0.5087, 0.5847, -3.0033], device='cuda:0',
grad_fn=<ViewBackward>))

簡明實(shí)現(xiàn)

除了使用我們剛剛定義的BatchNorm,我們也可以直接使用深度學(xué)習(xí)框架中定義的BatchNorm。該代碼看起來幾乎與我們上面的代碼相同。

net = nn.Sequential(
nn.Conv2d(1, 6, kernel_size=5), nn.BatchNorm2d(6), nn.Sigmoid(),
nn.MaxPool2d(kernel_size=2, stride=2),
nn.Conv2d(6, 16, kernel_size=5), nn.BatchNorm2d(16), nn.Sigmoid(),
nn.MaxPool2d(kernel_size=2, stride=2), nn.Flatten(),
nn.Linear(256, 120), nn.BatchNorm1d(120), nn.Sigmoid(),
nn.Linear(120, 84), nn.BatchNorm1d(84), nn.Sigmoid(),
nn.Linear(84, 10))

下面,我們使用相同超參數(shù)來訓(xùn)練模型。請注意,通常高級API變體運(yùn)行速度快得多,因?yàn)樗拇a已編譯為C++或CUDA,而我們自定義代碼由Python實(shí)現(xiàn)。

d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
loss 0.248, train acc 0.908, test acc 0.869
60219.9 examples/sec on cuda:0

爭議

直觀地說,批量歸一化被認(rèn)為可以使優(yōu)化更加平滑。

然而,在提出批量歸一化的論文中,作者除了介紹了其應(yīng)用,還解釋了其原理:通過減少內(nèi)部協(xié)變量。然而這種解釋更偏向于個人直覺。

但是批量歸一化的效果很好,它適用于幾乎所有圖像分類器,并在學(xué)術(shù)界獲得了數(shù)萬引用。

以上就是Python深度學(xué)習(xí)理解pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化的詳細(xì)內(nèi)容,更多關(guān)于pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化的資料請關(guān)注本站其它相關(guān)文章!

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實(shí)時開通

自選配置、實(shí)時開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部