这篇文章主要介绍了OpenCV光流Optical Flow怎么实现的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇OpenCV光流Optical Flow怎么实现文章都会有所收获,下面我们一起来看看吧。
光流
光流是由物体或相机的运动引起的图像物体在两个连续帧之间的明显运动的模式。它是二维向量场,其中每个向量都是一个位移向量,显示点从第一帧到第二帧的移动。如下图所示。
它显示了一个球在连续 5 帧中移动。箭头表示其位移矢量。光流在以下领域有许多应用:
运动结构
视频压缩
视频稳定
...
光流基于以下几个假设:
对象的像素强度在连续帧之间不会改变
相邻像素具有相似的运动
(用 Harris 角点检测器检查逆矩阵的相似性。它表示角点是更好的跟踪点。)
所以从用户的角度来看,这个想法很简单,给出了一些要追踪的要点,收到了这些点的光学流量矢量。但是,还有一些问题。到目前为止,正在处理的是小的动作,因此当有很大的动作时它失败了。要处理这一点,需要使用金字塔。当在金字塔上采样时,会消除小型动作,大的运动会变小。因此,通过在那里应用Lucas-Kanade,将光流与缩放合在一起了。
OpenCV 中的 Lucas-Kanade 光流
OpenCV的cv2.calcopticalFlowPyrLK()
提供了所有这些功能。下面创建一个简单的应用程序来跟踪视频中的某些点。为了确定点,使用cv2.goodFeaturesToTrack()
。取第一帧,检测其中的一些 Shi-Tomasi 角点,然后使用 Lucas-Kanade 光流迭代跟踪这些点。对于函数cv2.calcopticalFlowPyrLK()
,传递前一帧、前面的点和下一帧。它返回之后的点以及一些状态编号,如果找到之后的点,则值为 1,否则为零。在下一步中迭代地将这些点作为前面的点传递,迭代进行。
import cv2 import numpy as np video_file = 'slow_traffic_small.mp4' cap = cv2.VideoCapture(video_file) # params for ShiTomasi corner detection feature_params = dict( maxCorners = 100, qualityLevel = 0.3, mindistance = 7, blockSize = 7 ) # Parameters for lucas kanade optical flow lk_params = dict( winSize = (15, 15), maxLevel = 2, criteria = (cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 0.03)) # create some random colors color = np.random.randint(0, 255, (100, 3)) # Take first frame and find corners in it ret, old_frame = cap.read() old_gray = cv2.cvtColor(old_frame, cv2.COLOR_BGR2GRAY) p0 = cv2.goodFeaturesToTrack(old_gray, mask=None, **feature_params) # create a mask image for drawing purpose mask = np.zeros_like(old_frame) while True: ret, frame = cap.read() if ret: frame_gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # calculate optical flow p1, st, err = cv2.calcopticalFlowPyrLK(old_gray, frame_gray, p0, None, **lk_params) # Select good points if p1 is not None: good_new = p1[st==1] good_old = p0[st==1] # draw the tracks for i,(new, old) in enumerate(zip(good_new, good_old)): a, b = new.ravel() c, d = old.ravel() mask = cv2.line(mask, (int(a), int(b)), (int(c), int(d)), color[i].tolist(), 2) frame = cv2.circle(frame, (int(a), int(b)), 5, color[i].tolist(), -1) img = cv2.add(frame,mask) cv2.imshow('frame',img) k = cv2.waitKey(30) & 0xff if k == 27: cv2.destroyAllWindows() break # Now update the prevIoUs frame and prevIoUs points old_gray = frame_gray.copy() p0 = good_new.reshape(-1,1,2) else: cv2.destroyAllWindows() break
上述代码没有检查下一个关键点的正确程度。因此,即使图像中任何一个特征点消失,光流也有可能找到下一个看起来可能靠近它的点。实际上, 对于稳健的跟踪,角点应该在特定的时间间隔内检测点。OpenCV sample提出了这样一个例子,它每 5 帧找到一次特征点,还运行对光流点的向后检查,只选择好的点 )。
OpenCV 中的密集光流
Lucas-Kanade 方法计算稀疏特征集的光流(在示例中,使用 Shi-Tomasi 算法检测到的角点)。OpenCV 提供了另一种算法来寻找密集光流。它计算帧中所有点的光流。它基于 Gunner Farneback 的算法,该算法在 Gunner Farneback 于 2003 年在“Two-Frame Motion Estimation Based on polynomial Expansion”中进行了解释。
下面的示例显示了如何使用上述算法找到密集光流。首先得到一个带有光流向量(u,v)(u,v)(u,v)的 2通道向量,找到它们的大小和方向。对结果进行颜色编码以实现更好的可视化。方向对应于图像的色调值(Hue),幅度对应于值屏幕。代码如下:
import cv2 import numpy as np cap = cv2.VideoCapture("vtest.avi") ret, frame1 = cap.read() frame1_gray = cv2.cvtColor(frame1, cv2.COLOR_BGR2GRAY) hsv = np.zeros_like(frame1) hsv[...,1] = 255 while(1): ret, frame2 = cap.read() if ret: frame2_gray = cv2.cvtColor(frame2, cv2.COLOR_BGR2GRAY) flow = cv2.calcopticalFlowFarneback(frame1_gray, frame2_gray, None, 0.5, 3, 15, 3, 5, 1.2, 0) mag, ang = cv2.cartToPolar(flow[...,0], flow[...,1]) hsv[...,0] = ang*180/np.pi/2 hsv[...,2] = cv2.normalize(mag, None, 0, 255, cv2.norM_MINMAX) bgr = cv2.cvtColor(hsv, cv2.COLOR_HSV2BGR) cv2.imshow('frame2', bgr) k = cv2.waitKey(30) & 0xff if k == 27: cv2.destroyAllWindows() break elif k == ord('s'): cv2.imwrite('opticalfb.png',frame2) cv2.imwrite('opticalhsv.png',bgr) frame1_gray = frame2_gray else: cv2.destroyAllWindows() break
关于“OpenCV光流Optical Flow怎么实现”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“OpenCV光流Optical Flow怎么实现”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注编程之家行业资讯频道。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。