首页 > 编程知识 正文

opencv图像特征提取与识别,opencv 模板匹配带角度

时间:2023-05-04 20:19:00 阅读:29793 作者:852

1、原理简单地说,模板匹配就是让一个模板(图像)在目标图像上依次滑动,每次计算模板与模板下的子图的相似度,最后计算非常多的相似度;

如果只进行单一目标的匹配,则只要取具有类似度的最大值的位置就能够得到匹配位置

如果要匹配多个目标,请设置阈值。 也就是说,如果相似度例如大于0.8,则认为是一致的目标。

1.1相似度指标差分平方和匹配CV_TM_SQDIFF标准化差分平方和匹配CV_TM_SQDIFF_NORMED相关匹配CV_TM_CCORR标准相关匹配CV_TM_CCORR_NORMED 模板匹配是在大图像中搜索和检索模板图像位置的方法。 具体地,在输入图像上滑动模板图像,并且如同卷积操作一样,在模板图像下比较模板与子图的输入图像之间的相似度。 返回灰度图像。 每个像素表示该像素附近与模板匹配的相似度。 如果输入图像大小(WxH )和模板图像大小(WxH ),则输出图像的大小为) W-w 1、H-h 1)。 得到相似度图像后,在此基础上寻找具有最大相似度的像素。 将其设为匹配区域的矩形的左上角,将[w,h]设为矩形的宽度和高度。 此矩形是与模板匹配的区域。 2、代码实现2.1单模板匹配单目标代码实现如下:

#相关系数匹配方法: cv2.TM _ ccoeffres=cv2.match template (img,template,cv2.TM_ccoeff ) min_val,max_val,# max_loc=cv2.minmaxloc(RES ) left_top=max_loc #左上角right_bottom=(left_top[0]w,left _ top [1] 绘制cmap='gray ' ) PLT.title (匹配结果),PLT.xTiciccle )的PLT.imshow(img,cmap='gray ' ) PLT.title

#opencv模板匹配---单目标匹配import cv2#读取目标图像target=cv2.imread('target.jpg ' )读取模板图像template=twidth=template.shape[:2]#运行模板匹配,cv2.TM _ sq diff _ norme dresult=cv2.match template (target, 采用模板)的cv2.TM_sqdiff_normed(#规范化处理cv2.normalize(result,result,0,1,cv2.NORM_MINMAX,-1) # 在max_loc=cv2.minmaxloc(result )匹配值转换为字符串) cv2.TM_SQDIFF和cv2.TM_SQDIFF_NORMED方法min_val中,接近0 匹配区域标记为#min_loc :矩形定点#(min_loc[0]twidth,min_loc [1];2 :矩形框宽度cv2.rectangle(target,min _ loc,) ) 将与标题栏匹配的值转换为cv2.im show (' match result---- matching value=' strmin _ val,target ) cv2.waitKey ) cv2.destroyallwing

模板照片: mario_coin.jpg

代码如下。

import c v2 importnumpyasnpimg_RGB=cv2.im read (Mario.jpg ) ) img_gray=cv2.cvtcolor ) img _ RGB,cv2.color

= cv2.matchTemplate(img_gray, template, cv2.TM_CCOEFF_NORMED)threshold = 0.8# 取匹配程度大于%80的坐标loc = np.where(res >= threshold)#np.where返回的坐标值(x,y)是(h,w),注意h,w的顺序for pt in zip(*loc[::-1]): bottom_right = (pt[0] + w, pt[1] + h) cv2.rectangle(img_rgb, pt, bottom_right, (0, 0, 255), 2)cv2.imwrite("img.jpg",img_rgb)cv2.imshow('img', img_rgb)cv2.waitKey(0)

检测结果如下:

3、算法精度优化 多尺度模板匹配旋转目标模板匹配非极大值抑制

通过上图可以看到对同一个图有多个框标定,需要去重,只需要保留一个

解决方案:对于使用同一个待检区域使用NMS(非极大值抑制)进行去掉重复的矩形框

NMS 原理
对于Bounding Box的列表B及其对应的置信度S,采用下面的计算方式。选择具有最失眠的宝马的检测框M,将其从B集合中移除并加入到最终的检测结果D中。通常将B中剩余检测框中与M的IoU大于阈值Nt的框从B中移除,重复这个过程,直到B为空。

ps. 重叠率(重叠区域面积比例IOU)常用的阈值是 0.3 ~ 0.5.

代码如下:

import cv2import timeimport numpy as np def py_nms(dets, thresh): """Pure Python NMS baseline.""" #x1、y1、x2、y2、以及score赋值 # (x1、y1)(x2、y2)为box的左上和右下角标 x1 = dets[:, 0] y1 = dets[:, 1] x2 = dets[:, 2] y2 = dets[:, 3] scores = dets[:, 4] #每一个候选框的面积 areas = (x2 - x1 + 1) * (y2 - y1 + 1) #order是按照score降序排序的 order = scores.argsort()[::-1] # print("order:",order) keep = [] while order.size > 0: i = order[0] keep.append(i) #计算当前概率最大矩形框与其他矩形框的相交框的坐标,会用到numpy的broadcast机制,得到的是向量 xx1 = np.maximum(x1[i], x1[order[1:]]) yy1 = np.maximum(y1[i], y1[order[1:]]) xx2 = np.minimum(x2[i], x2[order[1:]]) yy2 = np.minimum(y2[i], y2[order[1:]]) #计算相交框的面积,注意矩形框不相交时w或h算出来会是负数,用0代替 w = np.maximum(0.0, xx2 - xx1 + 1) h = np.maximum(0.0, yy2 - yy1 + 1) inter = w * h #计算重叠度IOU:重叠面积/(面积1+面积2-重叠面积) ovr = inter / (areas[i] + areas[order[1:]] - inter) #找到重叠度不高于阈值的矩形框索引 inds = np.where(ovr <= thresh)[0] # print("inds:",inds) #将order序列更新,由于前面得到的矩形框索引要比矩形框在原order序列中的索引小1,所以要把这个1加回来 order = order[inds + 1] return keep def template(img_gray,template_img,template_threshold): ''' img_gray:待检测的灰度图片格式 template_img:模板小图,也是灰度化了 template_threshold:模板匹配的置信度 ''' h, w = template_img.shape[:2] res = cv2.matchTemplate(img_gray, template_img, cv2.TM_CCOEFF_NORMED) start_time = time.time() loc = np.where(res >= template_threshold)#大于模板阈值的目标坐标 score = res[res >= template_threshold]#大于模板阈值的目标置信度 #将模板数据坐标进行处理成左上角、右下角的格式 xmin = np.array(loc[1]) ymin = np.array(loc[0]) xmax = xmin+w ymax = ymin+h xmin = xmin.reshape(-1,1)#变成n行1列维度 xmax = xmax.reshape(-1,1)#变成n行1列维度 ymax = ymax.reshape(-1,1)#变成n行1列维度 ymin = ymin.reshape(-1,1)#变成n行1列维度 score = score.reshape(-1,1)#变成n行1列维度 data_hlist = [] data_hlist.append(xmin) data_hlist.append(ymin) data_hlist.append(xmax) data_hlist.append(ymax) data_hlist.append(score) data_hstack = np.hstack(data_hlist)#将xmin、ymin、xmax、yamx、scores按照列进行拼接 thresh = 0.3#NMS里面的IOU交互比阈值 keep_dets = py_nms(data_hstack, thresh) print("nms time:",time.time() - start_time)#打印数据处理到nms运行时间 dets = data_hstack[keep_dets]#最终的nms获得的矩形框 return detsif __name__ == "__main__": img_rgb = cv2.imread('mario.jpg')#需要检测的图片 img_gray = cv2.cvtColor(img_rgb, cv2.COLOR_BGR2GRAY)#转化成灰色 template_img = cv2.imread('mario_coin.jpg', 0)#模板小图 template_threshold = 0.8#模板置信度 dets = template(img_gray,template_img,template_threshold) count = 0 for coord in dets: cv2.rectangle(img_rgb, (int(coord[0]),int(coord[1])), (int(coord[2]),int(coord[3])), (0, 0, 255), 2) cv2.imwrite("result.jpg",img_rgb)

检测结果如下:

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。