一、sift算法
尺度不变特征转换(scale-invariant feature transform或sift)是一种机器视觉的算法用来侦测与描述影像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变数,此算法由david lowe在1999年所发表,2004年完善总结。
sift算法的实质是在不同的尺度空间上查找关键点(特征点),并计算出关键点的方向。sift所查找到的关键点是一些十分突出,不会因光照,仿射变换和噪音等因素而变化的点,如角点、边缘点、暗区的亮点及亮区的暗点等。
sift算法的步骤
1.尺度空间的极值检测:利用高斯金字塔以及高斯差分函数找出极大值与极小值点,这些极值点被视为可能的关键点。
2.特征点定位:通过一系列的拟合函数模型来找出特征点的位置或者是通过双线性插值找到关键点在不同尺度上的精确位置,确保它们在尺度变化下依然稳定。
3.特征点赋值:对于每个关键点,计算其周围区域的梯度方向图像,然后找到方向直方图。通过选择方向直方图中强度最高的两个方向(邻近角),确定关键点的主方向。
4.特征点描述:基于关键点周围的局部图像,通过高斯滤波、差分、旋转不变性和对比度归一化等操作,生成一个固定长度的sift描述符。
详细的操作步骤可以参考有关文章:http://t.csdnimg.cn/ihtdd这里不做过多介绍。
二、图像拼接
图像拼接技术是一种将多个具有重叠部分的图像组合成一幅无缝全景图或高分辨率图像的技术。这项技术在医学成像、计算机视觉、卫星数据处理、军事目标自动识别等领域具有重要应用。图像拼接的基本思想是找到图像之间的映射关系,然后将它们拼接在一起,形成一个统一的视图。
图像拼接通常包括以下几个关键步骤:
- 特征检测与提取:在所有输入图像中检测特征点,这些特征点是图像中的像素组,用于后续的图像配准。常用的特征提取方法包括sift(尺度不变特征变换)、surf(加速稳健特征)、fast(特征加速检测算法)和orb(oriented fast and rotated brief)等。
- 特征匹配:建立图像之间的几何对应关系,使得它们可以在一个共同的参照系中进行变换、比较和分析。这一步骤通常涉及到使用匹配算法,如暴力匹配或knn(k最近邻)匹配。
- 透视变换:根据匹配的特征点计算出图像之间的变换矩阵,通常是单应性矩阵,用于将图像从一个坐标系映射到另一个坐标系。
- 图像融合:通过改变边界附近的图像灰度级,去除缝隙,创建混合图像,从而在图像之间实现平滑过渡。混合模式(blend modes)用于将两层融合到一起。
三、操作实现
这里先展示一下需要拼接的图片
(1)特征提取与检测:
def detectanddescribe(self, image):
# 将彩色图片转换成灰度图
gray = cv2.cvtcolor(image, cv2.color_bgr2gray)
# 建立sift生成器
descriptor = cv2.xfeatures2d.sift_create()
# 检测sift特征点,并计算描述子
(kps, features) = descriptor.detectandcompute(image, none)
# 将结果转换成numpy数组
kps = np.float32([kp.pt for kp in kps])
# 返回特征点集,及对应的描述特征
return (kps, features)
(2)模版匹配(借助暴力模版匹配)并且计算透视变换矩阵。
def matchkeypoints(self, kpsa, kpsb, featuresa, featuresb, ratio, reprojthresh):
# 建立暴力匹配器
matcher = cv2.bfmatcher()
# 使用knn检测来自a、b图的sift特征匹配对,k=2
rawmatches = matcher.knnmatch(featuresa, featuresb, 2)
matches = []
for m in rawmatches:
# 当最近距离跟次近距离的比值小于ratio值时,保留此匹配对
if len(m) == 2 and m[0].distance < m[1].distance * ratio:
# 存储两个点在featuresa, featuresb中的索引值
matches.append((m[0].trainidx, m[0].queryidx))
# 当筛选后的匹配对大于4时,计算视角变换矩阵
if len(matches) > 4:
# 获取匹配对的点坐标
ptsa = np.float32([kpsa[i] for (_, i) in matches])
ptsb = np.float32([kpsb[i] for (i, _) in matches])
# 计算视角变换矩阵
(h, status) = cv2.findhomography(ptsa, ptsb, cv2.ransac, reprojthresh)
# 返回结果
return (matches, h, status)
# 如果匹配对小于4时,返回none
return none
(3)初始化拼接图片
def drawmatches(self, imagea, imageb, kpsa, kpsb, matches, status):
# 初始化可视化图片,将a、b图左右连接到一起
(ha, wa) = imagea.shape[:2]
(hb, wb) = imageb.shape[:2]
vis = np.zeros((max(ha, hb), wa + wb, 3), dtype="uint8")
vis[0:ha, 0:wa] = imagea
vis[0:hb, wa:] = imageb
# 联合遍历,画出匹配对
for ((trainidx, queryidx), s) in zip(matches, status):
# 当点对匹配成功时,画到可视化图上
if s == 1:
# 画出匹配对
pta = (int(kpsa[queryidx][0]), int(kpsa[queryidx][1]))
ptb = (int(kpsb[trainidx][0]) + wa, int(kpsb[trainidx][1]))
cv2.line(vis, pta, ptb, (0, 255, 0), 1)
# 返回可视化结果
return vis
(4)图像融合
def stitch(self, images, ratio=0.75, reprojthresh=4.0,showmatches=false):
#获取输入图片
(imageb, imagea) = images
#检测a、b图片的sift关键特征点,并计算特征描述子
(kpsa, featuresa) = self.detectanddescribe(imagea)
(kpsb, featuresb) = self.detectanddescribe(imageb)
# 匹配两张图片的所有特征点,返回匹配结果
m = self.matchkeypoints(kpsa, kpsb, featuresa, featuresb, ratio, reprojthresh)
# 如果返回结果为空,没有匹配成功的特征点,退出算法
if m is none:
return none
# h是3x3视角变换矩阵
(matches, h, status) = m
# 将图片a进行视角变换,result是变换后图片
result = cv2.warpperspective(imagea, h, (imagea.shape[1] + imageb.shape[1], imagea.shape[0]))
self.cv_show('result', result)
# 将图片b传入result图片最左端
result[0:imageb.shape[0], 0:imageb.shape[1]] = imageb
self.cv_show('result', result)
# 检测是否需要显示图片匹配
if showmatches:
# 生成匹配图片
vis = self.drawmatches(imagea, imageb, kpsa, kpsb, matches, status)
# 返回结果
return (result, vis)
(5)效果展示
# 读取拼接图片
imagea = cv2.imread("left_01.png")
imageb = cv2.imread("right_01.png")
# 把图片拼接成全景图
stitcher = stitcher()
(result, vis) = stitcher.stitch([imagea, imageb], showmatches=true)
# 显示所有图片
cv2.imshow("image a", imagea)
cv2.imshow("image b", imageb)
cv2.imshow("keypoint matches", vis)
cv2.imshow("result", result)
cv2.waitkey(0)
cv2.destroyallwindows()
发表评论