Python語言實現(xiàn)SIFT算法
本文側(cè)重于如何使用Python語言實現(xiàn)SIFT算法
所有程序已打包:基于OpenCV-Python的SIFT算法的實現(xiàn)
一、什么是SIFT算法
SIFT,即尺度不變特征變換(Scale-invariant feature transform,SIFT),是用于圖像處理領(lǐng)域的一種描述。這種描述具有尺度不變性,可在圖像中檢測出關(guān)鍵點,是一種局部特征描述子。
二、準備工作
2.1 實驗設(shè)備
本文在Windows10系統(tǒng)上,使用pycharm軟件完成所有實驗。
2.2 OpenCV安裝
我們可以使用OpenCV庫中的cv2.xfeatures2d.SIFT_create()
函數(shù)實現(xiàn)SIFT,但由于專利保護,很多版本的OpenCV庫已無法提供該函數(shù),目前僅3.4.2.16
版本的OpenCV庫可使用此函數(shù)。
安裝教程:
(1)查看當前版本opencv:進入cmd(組合鍵win+R,輸入cmd),輸入conda list
,查看當前pycharm所有庫并找到opencv-python,若找不到庫,說明沒有安裝。
(2)卸載原版本(在cmd中輸入:pip uninstall opencv
)
(3)安裝新版本(在cmd中輸入:pip install opencv-python==3.4.2.16 -i "https://pypi.doubanio.com/simple/"
(4)安裝附屬庫(在cmd中輸入:pip install opencv-contrib-python==3.4.2.16 -i "https://pypi.doubanio.com/simple/"
)
三、實驗工作
3.1 圖像選擇
這里選擇經(jīng)典的lena圖像作為實驗對象,為了選擇一個待匹配圖像,本文使用如下代碼對lena圖像進行逆時針45°旋轉(zhuǎn)。
from PIL import Image img = Image.open('lena.png') img2 = img.rotate(45) # 逆時針旋轉(zhuǎn)45° img2.save("lena_rot45.png") img2.show()
參考圖像與待匹配圖像(即旋轉(zhuǎn)圖像)如下圖所示:
3.2 程序?qū)崿F(xiàn)
""" 圖像匹配——SIFT點特征匹配實現(xiàn)步驟: (1)讀取圖像; (2)定義sift算子; (3)通過sift算子對需要匹配的圖像進行特征點獲?。? a.可獲取各匹配圖像經(jīng)過sift算子的特征點數(shù)目 (4)可視化特征點(在原圖中標記為圓圈); a.為方便觀察,可將匹配圖像橫向拼接 (5)圖像匹配(特征點匹配); a.通過調(diào)整ratio獲取需要進行圖像匹配的特征點數(shù)量(ratio值越大,匹配的線條越密集,但錯誤匹配點也會增多) b.通過索引ratio選擇固定的特征點進行圖像匹配 (6)將待匹配圖像通過旋轉(zhuǎn)、變換等方式將其與目標圖像對齊 """ import cv2 # opencv版本需為3.4.2.16 import numpy as np# 矩陣運算庫 import time # 時間庫 original_lena = cv2.imread('lena.png') # 讀取lena原圖 lena_rot45 = cv2.imread('lena_rot45.png') # 讀取lena旋轉(zhuǎn)45°圖 sift = cv2.xfeatures2d.SIFT_create() # 獲取各個圖像的特征點及sift特征向量 # 返回值kp包含sift特征的方向、位置、大小等信息;des的shape為(sift_num, 128), sift_num表示圖像檢測到的sift特征數(shù)量 (kp1, des1) = sift.detectAndCompute(original_lena, None) (kp2, des2) = sift.detectAndCompute(lena_rot45, None) # 特征點數(shù)目顯示 print("=========================================") print("=========================================") print('lena 原圖 特征點數(shù)目:', des1.shape[0]) print('lena 旋轉(zhuǎn)圖 特征點數(shù)目:', des2.shape[0]) print("=========================================") print("=========================================") # 舉例說明kp中的參數(shù)信息 for i in range(2): print("關(guān)鍵點", i) print("數(shù)據(jù)類型:", type(kp1[i])) print("關(guān)鍵點坐標:", kp1[i].pt) print("鄰域直徑:", kp1[i].size) print("方向:", kp1[i].angle) print("所在的圖像金字塔的組:", kp1[i].octave) print("=========================================") print("=========================================") """ 首先對原圖和旋轉(zhuǎn)圖進行特征匹配,即圖original_lena和圖lena_rot45 """ # 繪制特征點,并顯示為紅色圓圈 sift_original_lena = cv2.drawKeypoints(original_lena, kp1, original_lena, color=(255, 0, 255)) sift_lena_rot45 = cv2.drawKeypoints(lena_rot45, kp2, lena_rot45, color=(255, 0, 255)) sift_cat1 = np.hstack((sift_original_lena, sift_lena_rot45)) # 對提取特征點后的圖像進行橫向拼接 cv2.imwrite("sift_cat1.png", sift_cat1) print('原圖與旋轉(zhuǎn)圖 特征點繪制圖像已保存') cv2.imshow("sift_point1", sift_cat1) cv2.waitKey() # 特征點匹配 # K近鄰算法求取在空間中距離最近的K個數(shù)據(jù)點,并將這些數(shù)據(jù)點歸為一類 start = time.time() # 計算匹配點匹配時間 bf = cv2.BFMatcher() matches1 = bf.knnMatch(des1, des2, k=2) print('用于 原圖和旋轉(zhuǎn)圖 圖像匹配的所有特征點數(shù)目:', len(matches1)) # 調(diào)整ratio # ratio=0.4:對于準確度要求高的匹配; # ratio=0.6:對于匹配點數(shù)目要求比較多的匹配; # ratio=0.5:一般情況下。 ratio1 = 0.5 good1 = [] for m1, n1 in matches1: # 如果最接近和次接近的比值大于一個既定的值,那么我們保留這個最接近的值,認為它和其匹配的點為good_match if m1.distance < ratio1 * n1.distance: good1.append([m1]) end = time.time() print("匹配點匹配運行時間:%.4f秒" % (end-start)) # 通過對good值進行索引,可以指定固定數(shù)目的特征點進行匹配,如good[:20]表示對前20個特征點進行匹配 match_result1 = cv2.drawMatchesKnn(original_lena, kp1, lena_rot45, kp2, good1, None, flags=2) cv2.imwrite("match_result1.png", match_result1) print('原圖與旋轉(zhuǎn)圖 特征點匹配圖像已保存') print("=========================================") print("=========================================") print("原圖與旋轉(zhuǎn)圖匹配對的數(shù)目:", len(good1)) for i in range(2): print("匹配", i) print("數(shù)據(jù)類型:", type(good1[i][0])) print("描述符之間的距離:", good1[i][0].distance) print("查詢圖像中描述符的索引:", good1[i][0].queryIdx) print("目標圖像中描述符的索引:", good1[i][0].trainIdx) print("=========================================") print("=========================================") cv2.imshow("original_lena and lena_rot45 feature matching result", match_result1) cv2.waitKey() # 將待匹配圖像通過旋轉(zhuǎn)、變換等方式將其與目標圖像對齊,這里使用單應(yīng)性矩陣。 # 單應(yīng)性矩陣有八個參數(shù),如果要解這八個參數(shù)的話,需要八個方程,由于每一個對應(yīng)的像素點可以產(chǎn)生2個方程(x一個,y一個),那么總共只需要四個像素點就能解出這個單應(yīng)性矩陣。 if len(good1) > 4: ptsA = np.float32([kp1[m[0].queryIdx].pt for m in good1]).reshape(-1, 1, 2) ptsB = np.float32([kp2[m[0].trainIdx].pt for m in good1]).reshape(-1, 1, 2) ransacReprojThreshold = 4 # RANSAC算法選擇其中最優(yōu)的四個點 H, status =cv2.findHomography(ptsA, ptsB, cv2.RANSAC, ransacReprojThreshold) imgout = cv2.warpPerspective(lena_rot45, H, (original_lena.shape[1], original_lena.shape[0]), flags=cv2.INTER_LINEAR + cv2.WARP_INVERSE_MAP) cv2.imwrite("imgout.png", imgout) cv2.imshow("lena_rot45's result after transformation", imgout) cv2.waitKey()
3.3 程序結(jié)果
到此這篇關(guān)于Python語言實現(xiàn)SIFT算法的文章就介紹到這了,更多相關(guān)python SIFT算法內(nèi)容請搜索本站以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持本站!
版權(quán)聲明:本站文章來源標注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。