[OpenCV实战]14 使用OpenCV实现单目标跟踪
目录
1 背景
1.1 什么是目标跟踪
1.2 跟踪与检测
2 OpenCV的目标跟踪函数
2.1 函数调用
2.2 函数详解
2.3 综合评价
3 参考
在本教程中,我们将了解OpenCV 3中引入的OpenCV目标跟踪API。我们将学习如何以及何时使用OpenCV 3中提供的8种不同的跟踪器BOOSTING,MIL,KCF,TLD,MEDIANFLOW,GOTURN,MOSSE和CSRT。我们还将学习目前跟踪算法的通用原理。OpenCV版本至少OpenCV3.4.1以上。同时需要调用opencv_contrib库,OpenCV大量的算法存放在opencv_contrib目录下面的未稳定功能模块里,release版本没有。
正如下面这个完美的实时面部跟踪器所示!动画演示了我们想要的理想目标跟踪器:速度,准确性和鲁棒性。
1 背景
1.1 什么是目标跟踪
简而言之,在视频的连续帧中定位对象称为跟踪。该定义听起来很直接,但在计算机视觉和机器学习中,跟踪是一个非常广泛的术语,概念上相似但实现的技术却大大不同。例如,通常在目标跟踪有以下方法:
1)密集光流:这些算法有助于估计视频帧中每个像素的运动情况。
2)稀疏光流:这些算法,如Kanade-Lucas-Tomashi(KLT)特征跟踪器,跟踪图像中几个特征点的位置。
3)卡尔曼滤波:一种非常流行的信号处理算法,用于根据先前的运动信息预测运动物体的位置。该算法的早期应用之一是导弹制导!还提到这里,阿波罗11号登月舱的降落到月球车载计算机有一个卡尔曼滤波器。Engineers Look to Kalman Filtering for Guidance。
4)均值偏移(Meanshift)和Camshift(Meanshift的改进,连续自适应的MeanShift算法):这些是用于定位密度函数的最大值的算法。它们也用于跟踪。
5)单目标跟踪算法:在此类跟踪器中,第一帧使用矩形表示我们要跟踪的对象的位置。然后使用跟踪算法在后续帧中跟踪对象。在大多数实际应用中,这些跟踪器与目标检测算法结合使用。
6)多目标跟踪算法:在我们有快速对象检测器的情况下,检测每个帧中的多个对象然后运行跟踪查找算法来识别一个帧中的哪个矩形对应于下一帧中的矩形是很有效的。
1.2 跟踪与检测
如果你曾经用过OpenCV人脸检测,你知道它可以实时工作,你可以轻松地在每一帧中检测到脸部。那么,为什么你需要首先进行跟踪?让我们探讨一下您可能想要进行视频跟踪的原因,而不仅仅是重复检测。
1)跟踪比检测更快:通常跟踪算法比检测算法更快。原因很简单。当您跟踪在前一帧中检测到的对象时,您对该对象的外观了解很多。您还可以知道前一帧中的位置以及其运动的方向和速度。因此,在下一帧中,您可以使用所有这些信息来预测下一帧中对象的位置,并围绕对象的预期位置进行小搜索,以准确定位对象。一个好的跟踪算法将使用它对该对象的所有信息,而检测算法总是从头开始。因此,在设计高效的系统时,通常在每第n帧上运行物体检测,而在之间的n-1帧中采用跟踪算法。
为什么我们不直接检测第一帧中的对象并随后跟踪?确实,跟踪可以从它拥有的额外信息中获益,如果它们移动速度太快以至于跟踪算法无法赶上时,您也可能失去对象的跟踪。跟踪算法累积错误也很常见,跟踪对象的边界框会慢慢偏离其正在跟踪的对象。为了通过跟踪算法解决这些问题,每隔一段时间运行一次检测算法。
2)当检测失败时,跟踪可以提供帮助:如果您在视频上运行人脸检测器并且人脸被对象遮挡,则人脸检测器很可能会失败。另一方面,良好的跟踪算法将处理某种程度的遮挡。
3)跟踪保留标识:对象检测的输出是包含对象的矩形数组。但是,该对象没有附加标识。例如在第一张图检测到多个对象会画检测框,但是第二张图又检测多个对象。但是不知道哪个矩形对应于哪个对象。
2 OpenCV的目标跟踪函数
2.1 函数调用
OpenCV的扩展库OpenCV_contrib有一个目标跟踪API,其中包含许多单个对象跟踪算法的实现。OpenCV中有8种不同的跟踪器,分别是BOOSTING,MIL,KCF,TLD,MEDIANFLOW,GOTURN,MOSSE和CSRT。本文只讲其中7种,GOTURN涉及到深度学习以后再讲。其他算法可以直接用OpenCV contrib库函数调用。
但是如果使用OpenCV_contrib函数库需要重新编译源代码。
C++需要编译源代码,具体见:
windows
win10+vs2017+opencv3.4.3+cmake配置opencv contrib过程和注意事项_TangMH_2020的博客-****博客
linux
Ubuntu16.04卸载opencv 3.0.0,安装opencv3.4.2 + contrib_haoqimao_hard的博客-****博客_卸载opencv
Python稍微很简单,先卸载安装的Opencv,然后直接pip/pip3安装contrib库:
pip uninstall opencv-python
pip install opencv-contrib-python
在我们提供算法的简要描述之前,让我们看一下参数设置和用法。在下面的注释代码中,我们首先通过选择跟踪器类型来设置跟踪器,BOOSTING,MIL,KCF,TLD,MEDIANFLOW,GOTURN,MOSSE或CSRT。然后我们打开一个视频并逐帧读图。我们定义一个包含第一帧对象的边界框,并用第一帧和边界框初始化跟踪器。最后,我们从视频中读取帧更新跟踪器以获得当前帧的新边界框,并显示结果。
代码下载地址:
GitHub - luohenyueji/OpenCV-Practical-Exercise: OpenCV practical exercise
代码如下:
C++:
// Opencv_Tracker.cpp : 此文件包含 "main" 函数。程序执行将在此处开始并结束。
//
#include "pch.h"
#include <opencv2/opencv.hpp>
#include <opencv2/tracking.hpp>
#include <opencv2/core/ocl.hpp>
using namespace cv;
using namespace std;
int main()
{
//跟踪算法类型
string trackerTypes[7] = { "BOOSTING", "MIL", "KCF", "TLD","MEDIANFLOW", "MOSSE", "CSRT" };
// Create a tracker 创建跟踪器
string trackerType = trackerTypes[5];
Ptr<Tracker> tracker;
if (trackerType == "BOOSTING")
tracker = TrackerBoosting::create();
if (trackerType == "MIL")
tracker = TrackerMIL::create();
if (trackerType == "KCF")
tracker = TrackerKCF::create();
if (trackerType == "TLD")
tracker = TrackerTLD::create();
if (trackerType == "MEDIANFLOW")
tracker = TrackerMedianFlow::create();
if (trackerType == "MOSSE")
tracker = TrackerMOSSE::create();
if (trackerType == "CSRT")
tracker = TrackerCSRT::create();
// Read video 读视频
VideoCapture video("video/chaplin.mp4");
// Exit if video is not opened 如果没有视频文件
if (!video.isOpened())
{
cout << "Could not read video file" << endl;
return 1;
}
// Read first frame 读图
Mat frame;
bool ok = video.read(frame);
// Define initial boundibg box 初始检测框
Rect2d bbox(287, 23, 86, 320);
// Uncomment the line below to select a different bounding box 手动在图像上画矩形框
//bbox = selectROI(frame, false);
// Display bounding box 展示画的2边缘框
rectangle(frame, bbox, Scalar(255, 0, 0), 2, 1);
imshow("Tracking", frame);
//跟踪器初始化
tracker->init(frame, bbox);
while (video.read(frame))
{
// Start timer 开始计时
double timer = (double)getTickCount();
// Update the tracking result 跟新跟踪器算法
bool ok = tracker->update(frame, bbox);
// Calculate Frames per second (FPS) 计算FPS
float fps = getTickFrequency() / ((double)getTickCount() - timer);
if (ok)
{
// Tracking success : Draw the tracked object 如果跟踪到目标画框
rectangle(frame, bbox, Scalar(255, 0, 0), 2, 1);
}
else
{
// Tracking failure detected. 没有就输出跟踪失败
putText(frame, "Tracking failure detected", Point(100, 80), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(0, 0, 255), 2);
}
// Display tracker type on frame 展示检测算法类型
putText(frame, trackerType + " Tracker", Point(100, 20), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(50, 170, 50), 2);
// Display FPS on frame 表示FPS
putText(frame, "FPS : " + to_string(int(fps)), Point(100, 50), FONT_HERSHEY_SIMPLEX, 0.75, Scalar(50, 170, 50), 2);
// Display frame.
imshow("Tracking", frame);
// Exit if ESC pressed.
int k = waitKey(1);
if (k == 27)
{
break;
}
}
return 0;
}
Python:
import cv2
import sys
if __name__ == '__main__' :
# Set up tracker.
# Instead of MIL, you can also use
tracker_types = ['BOOSTING', 'MIL','KCF', 'TLD', 'MEDIANFLOW', 'MOSSE', 'CSRT']
tracker_type = tracker_types[4]
if tracker_type == 'BOOSTING':
tracker = cv2.TrackerBoosting_create()
if tracker_type == 'MIL':
tracker = cv2.TrackerMIL_create()
if tracker_type == 'KCF':
tracker = cv2.TrackerKCF_create()
if tracker_type == 'TLD':
tracker = cv2.TrackerTLD_create()
if tracker_type == 'MEDIANFLOW':
tracker = cv2.TrackerMedianFlow_create()
if tracker_type == "CSRT":
tracker = cv2.TrackerCSRT_create()
if tracker_type == "MOSSE":
tracker = cv2.TrackerMOSSE_create()
# Read video
video = cv2.VideoCapture("video/chaplin.mp4")
# Exit if video not opened.
if not video.isOpened():
print("Could not open video")
sys.exit()
# Read first frame.
ok, frame = video.read()
if not ok:
print('Cannot read video file')
sys.exit()
# Define an initial bounding box
bbox = (287, 23, 86, 320)
# Uncomment the line below to select a different bounding box
bbox = cv2.selectROI(frame, False)
# Initialize tracker with first frame and bounding box
ok = tracker.init(frame, bbox)
while True:
# Read a new frame
ok, frame = video.read()
if not ok:
break
# Start timer
timer = cv2.getTickCount()
# Update tracker
ok, bbox = tracker.update(frame)
# Calculate Frames per second (FPS)
fps = cv2.getTickFrequency() / (cv2.getTickCount() - timer);
# Draw bounding box
if ok:
# Tracking success
p1 = (int(bbox[0]), int(bbox[1]))
p2 = (int(bbox[0] + bbox[2]), int(bbox[1] + bbox[3]))
cv2.rectangle(frame, p1, p2, (255,0,0), 2, 1)
else :
# Tracking failure
cv2.putText(frame, "Tracking failure detected", (100,80), cv2.FONT_HERSHEY_SIMPLEX, 0.75,(0,0,255),2)
# Display tracker type on frame
cv2.putText(frame, tracker_type + " Tracker", (100,20), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (50,170,50),2);
# Display FPS on frame
cv2.putText(frame, "FPS : " + str(int(fps)), (100,50), cv2.FONT_HERSHEY_SIMPLEX, 0.75, (50,170,50), 2);
# Display result
cv2.imshow("Tracking", frame)
# Exit if ESC pressed
k = cv2.waitKey(1) & 0xff
if k == 27 : break
2.2 函数详解
在本节中,我们将深入研究不同的跟踪算法。目标不是要对每个跟踪器有深入的理论理解,而是从实际的角度理解它们。
在跟踪中,我们的目标是在当前帧中找到前一帧已经识别或者跟踪到的一个对象。由于我们已经跟踪了当前帧的对象,因此我们知道它是如何移动的。换句话说,我们知道运动模型的参数。运动模型只是一种有效的方式,表示你知道前一帧中该物体的位置和速度。如果您对该对象一无所知,则可以根据当前运动模型预测新位置,并且获得的结果将非常接近对象的新位置。
当我们有更多物体的信息,我们可以构建一个外观模型来表示对象的外观。该外观模型可用于在由运动模型预测的位置的小邻域中搜索,以更准确地预测对象的位置。运动模型预测对象的大致位置。外观模型可以精确调整此估计值,以便根据外观提供更准确的估计。如果目标对象非常简单并且外观变化不大,我们可以使用一个简单的模板作为外观模型并查找该模板。然而,现实生活并非那么简单。对象的外观可能会发生巨大变化。为了解决这个问题,在许多现代目标跟踪器中,外观模型是以在线方式训练的分类器。
分类器的工作是将图像的矩形区域分类为对象或背景。分类器将图像块作为输入,并返回0到1之间的分数,以表示图像块包含对象的概率。当绝对确定图像块是背景时得分为0,当绝对确定图像块是前景对象时得分为1。在机器学习中,我们使用“在线”一词来指代在运行时即时训练的算法。一个离线分类可能需要成千上万的例子训练分类,而是一个在线分类器使用很少的例子在运行时进行训练。通过将其分为正(对象)和负(背景)示例来训练分类器。如果你想建立一个用于检测猫的分类器,你可以使用包含猫的数千张图像和数千张不含猫的图像来训练它。通过这种方式,分类器学会区分什么是猫而不是什么。但在构建在线分类器的同时,我们没有数千个正面和负面类的例子。所以我们需要通过在线训练跟踪器,来实现目标跟踪。
1) BOOSTING Tracker/集成学习跟踪器
该跟踪器基于AdaBoost的在线版本,即基于HAAR级联的检测器法。需要在运行时使用对象的正负示例训练此分类器。由用户(或另一个对象检测算法)提供的初始边界框被视为对象的正例,并且边界框外的许多图像块被视为背景。给定新帧,分类器在先前位置的邻域中的每个像素上运行,并且记录分类器的分数。对象的新位置是得分最大的位置。所以现在我们又有了一个分类器的正面例子。随着更多帧进入,分类器将使用此数据进行更新。
优点:没有。这个算法已有十年之久,并且运行正常,但我找不到使用它的充分理由,特别是当基于类似原理的其他高级跟踪器(MIL,KCF)可用时。
缺点:跟踪效果很普通,而且无法确定是否跟踪失败。
2) MIL Tracker/多实例学习跟踪器
该跟踪器在概念上类似于上述的BOOSTING跟踪器。最大的区别在于,不仅考虑对象的当前位置作为正例,而是在当前位置周围的小邻域产生若干潜在的正例。您可能认为这是一个坏主意,因为在大多数这些正样本的例子中,对象不是居中的。
这是多实例学习跟踪器(MIL)要解决的问题。在MIL中,您没有指定正负样本的图像块,而是正负例的图像集合。正图像集合中的图像块并非都是正例。意思就是正图像集中有若干图像块,但只需要其中一个图像块是正例。在我们的示例中,正图像集以对象当前位置为中心的图像块,以及在其周围的小邻域中的图像块。即使被跟踪对象的当前位置不准确,当来自当前位置真正的样本图像块被放入正图像集中,该正图像集能够至少包含一个正确的图像块。具体算法见:http://vision.ucsd.edu/~bbabenko/new/project_miltrack.shtml
优点:表现非常好。它不会像BOOSTING跟踪器那样结果漂移,并且在部分遮挡下可以完成合理的工作。但是相对来多KCF更好,不过MIL低版本的OpenCV也能使用,KCF版本要求更高。
缺点:无法检测是否跟踪失败,速度慢,且无法处理遮挡物体。
3) KCF Tracker/核相关滤波跟踪器
KCF跟踪器基于前两个跟踪器的思想,该跟踪器利用MIL跟踪器中使用的多个正样本具有大的重叠区域的特性。这种重叠的数据导致了一些很好的数学属性,这个属性被跟踪器利用,实现更快,更准确地跟踪。
优点:准确性和速度都优于MIL,同时会报告跟踪失败。
缺点:完全遮挡下效果不好。
4) TLD Tracker/单目标长时间跟踪器
顾名思义TLD表示跟踪,学习和检测,该跟踪器将长期跟踪任务分解为三个部分跟踪,学习和检测。跟踪器在帧与帧之间跟踪对象。并获取所有物体的外观并在必要时纠正跟踪器。学习估计跟踪器的错误并更新它以避免将来出现这些错误。这个跟踪器的输出往往会跳跃一下。例如,如果您正在跟踪行人并且场景中还有其他行人,则此跟踪器有时可以临时跟踪与您要跟踪的行人不同的行人。从积极的方面来说,这种追踪器算法可以在更大运动和遮挡范围跟踪物体。如果您有一个视频序列,其中对象隐藏在另一个对象后面,则此跟踪器可能是一个不错的选择。
优点:在多帧的遮挡下工作效果最佳,对于缩放的图像效果也不错。
缺点:很多误报使它几乎无法使用。
5) MEDIANFLOW Tracker
在内部,该跟踪器在时间上向前和向后方向上跟踪对象,并且测量这两个轨迹之间的差异。 最小化该ForwardBackward错误使它们能够可靠地检测跟踪失败并在视频序列中选择可靠的轨迹。
优点:跟踪失败会进行报告,当运动是可预测的并且没有遮挡时效果很好。
缺点:在大规模运动下失败。
6) MOSSE tracker/相关滤波跟踪
MOSSE使用自适应相关性进行目标跟踪,当使用单个帧初始化时产生稳定的相关滤波器。并最小化实际输出的卷积和期望输出卷积之间的方差来更新获得合适的滤波器。
优点:速度很快,容易实现
缺点:性能不那么好。速度不快。
7) CSRT tracker/判别相关滤波器跟踪
基于判别相关滤波器(DCF-CSR)中,是现在应用最广的跟踪算法。
优点:精度很高,比KCF快一点
缺点:速度很慢
2.3 综合评价
追踪器选择方法:
如果追求高准确度,又能忍受慢一些的速度,那么就用CSRT;
如果对准确度的要求不苛刻,想追求速度,那么就选KCF;
纯粹想节省时间就用MOSSE。
下表总结了不同版本的OpenCV中可使用的追踪器和具体速度情况。FPS在CPU(I5)下对640X360的视频进行跟踪所获得的平均结果。
Tracker |
FPS |
OpenCV Version |
BOOSTING |
43.9 |
OpenCV 3.0+ |
MIL |
11.0 |
OpenCV 3.0+ |
KCF |
48.0 |
OpenCV 3.2+ |
TLD |
23.0 |
OpenCV 3.0+ |
MEDIANFLOW |
277.5 |
OpenCV 3.0+ |
MOSSE |
144.2 |
OpenCV 3.1+ |
CSRT |
16.3 |
OpenCV 3.4+3 |
3 参考
Object Tracking using OpenCV (C++/Python)
https://www.jqr.com/article/000383
推荐阅读
-
使用OpenCV扩展模块中的TrackerKCF实现视频中的单一目标跟踪
-
使用OpenCV进行单目标跟踪
-
[OpenCV实战]14 使用OpenCV实现单目标跟踪
-
使用opencv3和C++编程语言实现简单目标跟踪的Tracker
-
14-傅里叶变换的代码实现-一、numpy实现傅里叶变换和逆傅里叶变换 1.numpy实现傅里叶变换numpy.fft.fft2实现傅里叶变换,返回一个复数数组(complex ndarray),也就是频谱图像numpy.fft.fftshift将零频率分量移到频谱中心(将左上角的低频区域,移到中心位置) 20*np.log(np.abs(fshift))设置频谱的范围。可以理解为,之前通过傅里叶变换得到复数的数组,是不能通过图像的方法展示出来的,需要转换为灰度图像(映射到[0,255]区间)需要注意的是1> 傅里叶得到低频、高频信息,针对低频、高频处理能够实现不同的目的2> 傅里叶过程是可逆的,图像经过傅里叶变换、逆傅里叶变换后,能够恢复到原始图像3> 在频域对图像进行处理,在频域的处理会反映在逆变换图像上 # 将绘制的图显示在窗口 %matplotlib qt5 import cv2 import numpy as np import matplotlib.pyplot as plt img = cv2.imread(r"image\lena.bmp",cv2.IMREAD_GRAYSCALE) # 傅里叶变换 f = np.fft.fft2(img) # 移动中心位置 fshift = np.fft.fftshift(f) # 调整值范围 result = 20*np.log(np.abs(fshift)) plt.subplot(1,2,1) plt.imshow(img,cmap=plt.cm.gray) plt.title("original") plt.axis("off") plt.subplot(1,2,2) plt.imshow(result,cmap=plt.cm.gray) plt.title("result") plt.axis("off") plt.show 傅里叶变换的频谱图像: 2.numpy实现逆傅里叶变换numpy.fft.ifft2实现逆傅里叶变换,返回一个复数数组(complex ndarray)numpy.fft.ifftshiftfftshift函数的逆函数,将中心位置的低频,重新移到左上角iimg = np.abs(逆傅里叶变化结果)设置值的范围,映射到[0,255]区间 # 将绘制的图显示在窗口 %matplotlib qt5 import cv2 import numpy as np import matplotlib.pyplot as plt img = cv2.imread(r"image\boat.bmp",cv2.IMREAD_GRAYSCALE) # 傅里叶变换 f = np.fft.fft2(img) fshift = np.fft.fftshift(f) # 逆傅里叶变换 ishift = np.fft.ifftshift(fshift) iimg = np.fft.ifft2(ishift) iimg = np.abs(iimg) plt.subplot(1,2,1) plt.imshow(img,cmap=plt.cm.gray) plt.title("original") plt.axis("off") plt.subplot(1,2,2) plt.imshow(iimg,cmap=plt.cm.gray) plt.title("iimg") plt.axis("off") plt.show 将一副图像,进行傅里叶变换和逆傅里叶变换后,进行对比(一样的) 实例:通过numpy实现高通滤波,保留图像的边缘信息 获取图像的形状rows,cols = img.shape获取图像的中心点crow,ccol = int(rows/2),int(cols/2)将频谱图像的中心区域(低频区域)设置为0(黑色)fshift[crow-30:crow+30,ccol-30:ccol+30] = 0 # 将绘制的图显示在窗口 %matplotlib qt5 import cv2 import numpy as np import matplotlib.pyplot as plt img = cv2.imread(r"image\boat.bmp",cv2.IMREAD_GRAYSCALE) # 傅里叶变换 f = np.fft.fft2(img) fshift = np.fft.fftshift(f) # 高通滤波 rows,cols = img.shape crow,ccol = int(rows/2),int(cols/2) fshift[crow-30:crow+30,ccol-30:ccol+30] = 0 # 逆傅里叶变换 ishift = np.fft.ifftshift(fshift) iimg = np.fft.ifft2(ishift) iimg = np.abs(iimg) plt.subplot(1,2,1) plt.imshow(img,cmap=plt.cm.gray) plt.title("original") plt.axis("off") plt.subplot(1,2,2) plt.imshow(iimg,cmap=plt.cm.gray) plt.title("iimg") plt.axis("off") plt.show 使用numpy实现高通滤波的实验结果: 二、opencv实现傅里叶变换和逆傅里叶变换 1.opencv实现傅里叶变换 返回结果 = cv2.dft(原始图像,转换标识)1> 返回结果:是双通道的,第一个通道是结果的实数部分,第二个通道是结果的虚数部分2> 原始图像:输入图像要首先转换成np.float32(img)格式3> 转换标识:flags = cv2.DFT_COMPLEX_OUTPUT,输出一个复数阵列numpy.fft.fftshift将零频率分量移到频谱中心(将左上角的低频区域,移到中心位置)调整频谱的范围,将上面频谱图像的复数数组,转换为可以显示的灰度图像(映射到[0,255]区间)返回值 = 20*np.log(cv2.magnitude(参数1,参数2))1> 参数1:浮点型X坐标值,也就是实部2> 参数2:浮点型Y坐标值,也就是虚部 # 将绘制的图显示在窗口 %matplotlib qt5 import cv2 import numpy as np import matplotlib.pyplot as plt img = cv2.imread(r"image\lena.bmp",cv2.IMREAD_GRAYSCALE) # 傅里叶变换 dft = cv2.dft(np.float32(img),flags = cv2.DFT_COMPLEX_OUTPUT) # 移动中心位置 dftShift = np.fft.fftshift(dft) # 调整频谱的范围 result = 20*np.log(cv2.magnitude(dftShift[:,:,0],dftShift[:,:,1])) plt.subplot(1,2,1) plt.imshow(img,cmap=plt.cm.gray) plt.title("original") plt.axis("off") plt.subplot(1,2,2) plt.imshow(result,cmap=plt.cm.gray) plt.title("result") plt.axis("off") plt.show 傅里叶变换的频谱图像: 2.opencv实现逆傅里叶变换返回结果 = cv2.idft(原始数据)1> 返回结果:取决于原始数据的类型和大小2> 原始数据:实数或者复数均可numpy.fft.ifftshiftfftshift函数的逆函数,将中心位置的低频,重新移到左上角调整频谱的范围,映射到[0,255]区间返回值 = cv2.magnitude(参数1,参数2)1> 参数1:浮点型X坐标值,也就是实部2> 参数2:浮点型Y坐标值,也就是虚部 # 将绘制的图显示在窗口 %matplotlib qt5 import cv2 import numpy as np import matplotlib.pyplot as plt img = cv2.imread(r"image\lena.bmp",cv2.IMREAD_GRAYSCALE) # 傅里叶变换 dft = cv2.dft(np.float32(img),flags = cv2.DFT_COMPLEX_OUTPUT) dftShift = np.fft.fftshift(dft) # 逆傅里叶变换 ishift = np.fft.ifftshift(dftShift) iimg = cv2.idft(ishift) iimg = cv2.magnitude(iimg[:,:,0],iimg[:,:,1]) plt.subplot(1,2,1) plt.imshow(img,cmap=plt.cm.gray) plt.title("original") plt.axis("off") plt.subplot(1,2,2) plt.imshow(iimg,cmap=plt.cm.gray) plt.title("inverse") plt.axis("off") plt.show 将一副图像,进行傅里叶变换和逆傅里叶变换后,进行对比(一样的) 实例:通过opencv实现低通滤波,模糊一副图像
-
TinyVision V851s 使用 OpenCV + NPU 实现 Mobilenet v2 目标分类识别
-
学习 linux gcc/g++ 常用命令行编译指令 - 项目目录 ~learn_cmake2/ +src/ |-cpp1.cpp |-cpp2.cpp |-main.cpp +include/ |-cpp1.h |-main.cpp +build/ +CMakeList cpp1.h #include<iostream>; 使用命名空间 std. void print1. cpp2.h #include<iostream>. 使用命名空间 std.NET void print2. cpp1.cpp #include "cpp1.h" void print1 { cout<< "this is cpp1"<< endl; } cpp2.cpp #include "cpp2.h" void print2 { cout<< "this is cpp2"<< endl; } main.cpp #include<iostream>; #include "opencv2/highgui/highgui/highgui #include "opencv2/highgui/highgui.hpp" #include "cpp1.hpp #include "cpp1.h" #include "cpp2.h" 使用 namespace std. 使用 namespace std; 使用 namespace cv. cv; int main Mat a=imread("cones.png",0) Mat a=imread("cones.png",0); print1; int main { print1; print2; int main { Mat a=imread("cones.png",0) print1; print2. imshow("cones",a); cvWaitKey(0); } 使用指令编译: 我们的想法是将除 main 函数外的所有 cpp 文件编译成目标文件,然后将它们链接到 maincpp。 总结:无论采用哪种编译方式,我们都需要告诉编译器我们要编译哪些 cpp,以及这些 cpp 的头文件(路径)在哪里。这些 cpp 使用的第三方库是什么(库文件名),库在哪里(库路径),库到我们的接口在哪里(库头文件路径,我们通过包含头文件编写 cpp,用接口调用相应的库实现) 事实上,我们现在可以编写一个 shell 来管理这些编译指令
-
[目标跟踪]-中心点跟踪算法(中心点跟踪)原理介绍及 python + opencv 实现
-
南邮OJ Web任务大揭秘:层层挑战剖析 1. 挑战一:迷宫般的目录探索 题目作者似乎穷举了所有可能的目录组合,最终在404.php中的