人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動態(tài)

pytorch機器學習softmax回歸的簡潔實現(xiàn)

發(fā)布日期:2021-12-26 08:44 | 文章來源:站長之家

通過深度學習框架的高級API也能更方便地實現(xiàn)分類模型。讓我們繼續(xù)使用Fashion-MNIST數(shù)據(jù)集,并保持批量大小為256。

import torch
from torch import nn
from d2l import torch as d2l
batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

初始化模型參數(shù)

由于sofrmax回歸的輸出層是一個全連接層,因此,為了實現(xiàn)我們的模型,我們只需在Sequential中添加一個帶有10個輸出的全連接層。同樣,在這里,Sequential并不是必要的,但我們可能會形成這種習慣。因為在實現(xiàn)深度模型時,Sequential將無處不在。我們仍然以均值0和標準差0.01隨機初始化權重。

# PyTorch不會隱式地調整輸入的形狀。因此,我們在線性層前定義了展平層(flatten),來調整網(wǎng)絡輸入的形狀
net = nn.Sequential(nn.Flatten(), nn.Linear(784, 10))
def init_weights(m):
	if type(m) == nn.Linear:
		nn.init.normal_(m.weight, std=0.01)
net.apply(init_weights)

重新審視softmax的實現(xiàn)

在前面的例子中,我們計算了模型的輸出,然后將此輸出送入交叉熵損失。從數(shù)學上講,這是一件完全合理的事情。然而,從計算角度來看,指數(shù)可能會造成數(shù)值穩(wěn)定性的問題,包括上溢和下溢。

我們也希望保留傳統(tǒng)的softmax函數(shù),以備我們需要評估通過模型輸出的概率。但是,我們沒有將softmax概率傳遞到損失函數(shù)中,而是在交叉熵損失函數(shù)中傳遞未歸一化的預測,并同時計算softmax及其對數(shù)。

loss = nn.CrossEntropyLoss()

優(yōu)化算法

在這里,我們使用學習率為0.1的小批量隨機梯度下降作為優(yōu)化算法。這與我們在線性回歸例子中的相同,這說明了優(yōu)化器的普適性。

trainer = torch.optim.SGD(net.parameters(), lr=0.1)

以上就是pytorch機器學習softmax回歸的簡潔實現(xiàn)的詳細內容,更多關于pytorch機器學習softmax回歸的資料請關注本站其它相關文章!

版權聲明:本站文章來源標注為YINGSOO的內容版權均為本站所有,歡迎引用、轉載,請保持原文完整并注明來源及原文鏈接。禁止復制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務器上建立鏡像,否則將依法追究法律責任。本站部分內容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學習參考,不代表本站立場,如有內容涉嫌侵權,請聯(lián)系alex-e#qq.com處理。

相關文章

實時開通

自選配置、實時開通

免備案

全球線路精選!

全天候客戶服務

7x24全年不間斷在線

專屬顧問服務

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務熱線

關注
微信

關注官方微信
頂部