人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動(dòng)態(tài)

Python深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基本原理

發(fā)布日期:2021-12-22 08:44 | 文章來源:源碼中國(guó)

神經(jīng)網(wǎng)絡(luò)

梯度下降法

在詳細(xì)了解梯度下降的算法之前,我們先看看相關(guān)的一些概念。

  1. 步長(zhǎng)(Learning rate):步長(zhǎng)決定了在梯度下降迭代的過程中,每一步沿梯度負(fù)方向前進(jìn)的長(zhǎng)度。用上面下山的例子,步長(zhǎng)就是在當(dāng)前這一步所在位置沿著最陡峭最易下山的位置走的那一步的長(zhǎng)度。

  2.特征(feature):指的是樣本中輸入部分,比如2個(gè)單特征的樣本(x(0),y(0)),(x(1),y(1))(x(0),y(0)),(x(1),y(1)),則第一個(gè)樣本特征為x(0)x(0),第一個(gè)樣本輸出為y(0)y(0)。

  3. 假設(shè)函數(shù)(hypothesis function):在監(jiān)督學(xué)習(xí)中,為了擬合輸入樣本,而使用的假設(shè)函數(shù),記為hθ(x)hθ(x)。比如對(duì)于單個(gè)特征的m個(gè)樣本(x(i),y(i))(i=1,2,...m)(x(i),y(i))(i=1,2,...m),可以采用擬合函數(shù)如下: hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x。

  4. 損失函數(shù)(loss function):為了評(píng)估模型擬合的好壞,通常用損失函數(shù)來度量擬合的程度。損失函數(shù)極小化,意味著擬合程度最好,對(duì)應(yīng)的模型參數(shù)即為最優(yōu)參數(shù)。在線性回歸中,損失函數(shù)通常為樣本輸出和假設(shè)函數(shù)的差取平方。比如對(duì)于m個(gè)樣本(xi,yi)(i=1,2,...m)(xi,yi)(i=1,2,...m),采用線性回歸,損失函數(shù)為:

J(θ0,θ1)=∑i=1m(hθ(xi)−yi)2J(θ0,θ1)=∑i=1m(hθ(xi)−yi)2

其中xixi表示第i個(gè)樣本特征,yiyi表示第i個(gè)樣本對(duì)應(yīng)的輸出,hθ(xi)hθ(xi)為假設(shè)函數(shù)。

分享人:張嬌娟

到此這篇關(guān)于Python深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基本原理的文章就介紹到這了,更多相關(guān)Python 神經(jīng)網(wǎng)絡(luò)內(nèi)容請(qǐng)搜索本站以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持本站!

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實(shí)時(shí)開通

自選配置、實(shí)時(shí)開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對(duì)1客戶咨詢顧問

在線
客服

在線客服:7*24小時(shí)在線

客服
熱線

400-630-3752
7*24小時(shí)客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部