(手寫)PCA原理及其Python實(shí)現(xiàn)圖文詳解
發(fā)布日期:2022-02-11 12:45 | 文章來(lái)源:CSDN
1、背景
為什么需要降維呢?
因?yàn)閿?shù)據(jù)個(gè)數(shù) N 和每個(gè)數(shù)據(jù)的維度 p 不滿足 N >> p,造成了模型結(jié)果的“過(guò)擬合”。有兩種方法解決上述問題:
增加N;減小p。
這里我們講解的 PCA 屬于方法2。
2、樣本均值和樣本方差矩陣
3、PCA
3.1 最大投影方差
3.2 最小重構(gòu)距離
4、Python實(shí)現(xiàn)
""" -*- coding: utf-8 -*- @ Time : 2021/8/15 22:19 @ Author: Raymond @ Email : wanght2316@163.com @ Editor: Pycharm """ from sklearn.datasets import load_digits from sklearn.decomposition import PCA import pandas as pd import matplotlib.pyplot as plt digits = load_digits() print(digits.keys()) print("數(shù)據(jù)的形狀為: {}".format(digits['data'].shape)) # 構(gòu)建模型 - 降到10 d pca = PCA(n_components=10) pca.fit(digits.data) projected=pca.fit_transform(digits.data) print('降維后主成分的方差值為:',pca.explained_variance_) print('降維后主成分的方差值占總方差的比例為:',pca.explained_variance_ratio_) print('降維后最大方差的成分為:',pca.components_) print('降維后主成分的個(gè)數(shù)為:',pca.n_components_) print('original shape:',digits.data.shape) print('transformed shape:',projected.shape) s = pca.explained_variance_ c_s = pd.DataFrame({'b': s,'b_sum': s.cumsum() / s.sum()}) c_s['b_sum'].plot(style= '--ko',figsize= (10, 4)) plt.rcParams['font.sans-serif'] = ['SimHei'] # 指定默認(rèn)字體 plt.rcParams['axes.unicode_minus'] = False # 解決保存圖像是負(fù)號(hào)'-'顯示為方塊的問題 plt.axhline(0.85, color= 'r',linestyle= '--') plt.text(6, c_s['b_sum'].iloc[6]-0.08, '第7個(gè)成分累計(jì)貢獻(xiàn)率超過(guò)85%', color='b') plt.title('PCA 各成分累計(jì)占比') plt.grid() plt.savefig('./PCA.jpg') plt.show()
結(jié)果展示:
總結(jié)
本篇文章就到這里了,希望能給你帶來(lái)幫助,也希望您能夠多多關(guān)注本站的更多內(nèi)容!
版權(quán)聲明:本站文章來(lái)源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來(lái)源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來(lái)源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來(lái),僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。
相關(guān)文章